¿Qué nos espera en la IA? - dotCSV | #MIDUCONF2025

Duration

31:12

Captions

1

Language

ES

Published

Sep 11, 2025

Description

▶ No te pierdas más directos en: https://www.twitch.tv/midudev

Captions (1)

00:00

Tenemos que hablar de inteligencia

00:01

artificial. Es que la inteligencia

00:02

artificial está en todos sitios. Si no,

00:04

yo que sé, o sea, es que parece que no

00:05

estés hablando si no hablas de

00:06

inteligencia artificial. Y he dicho,

00:09

ostras, yo si voy a hablar de

00:10

inteligencia artificial tengo que hablar

00:12

con el mejor. Entonces llamé a Samman y

00:14

Samman me dijo que no estaba disponible,

00:16

¿vale? Me dijo, "No, que no, no estoy

00:18

disponible." Yo, "Bueno, pues nada, pues

00:19

al segundo mejor." Y llamé a Elon Elon

00:22

Mask. Y Elon Mask me dijo que que que me

00:25

había creído yo, que estaba ocupado con

00:26

SpaceX. y dije, "Bueno, pues pues yo que

00:28

sé, al tercero mejor." Así que llamé a

00:32

12V y 12SV no me contestó, la verdad. No

00:34

os voy a engañar. O sea, no me contestó

00:36

y mira que le intenté enviar imágenes

00:38

generadas con inteligencia artificial

00:40

para ver si así le engañaba, pero yo

00:42

creo que por pena al final de tantas

00:44

cosas que generé con Ia, me dijo, "Mira,

00:46

solo por el esfuerzo" y aquí lo tenemos.

00:49

Hoy tenemos al bueno de Carlos Santana

00:51

que le voy a dar la bienvenida, creador

00:53

y divulgador sobre inteligencia

00:54

artificial, amigo 12V, ¿cómo estás?

00:58

>> Muy buenas, Midu. Muy bien, muy

01:00

contento. ¿Cómo? ¿Cómo que Keilon Mas

01:02

que Isam Almant? El uno y el dos. Madre

01:04

mía.

01:04

>> Es verdad.

01:05

>> No lo digo, no lo digo por mi posición,

01:06

lo digo porque, a ver, ellos saben mucho

01:08

de negocios, pero de ellos tien Bueno,

01:10

si es que ha venido ya a darme collejas

01:12

Carlos Anton. Ay, no, tienes toda tienes

01:15

toda razón. Era era una broma para hacer

01:16

una introducción, hombre. E, ¿cómo

01:19

estás? ¿Estás bien?

01:20

>> Muy bien, muy bien. La verdad que estaba

01:23

nervioso porque estaba estaba pensando

01:25

en el año pasado cuando vinimos a la

01:27

Miduc,

01:28

>> eh, creo que el año pasado fue 12 de

01:30

septiembre, no fue exactamente el día

01:31

10.

01:32

>> Y coincidió, tío, ese día con la salida

01:34

de o un preview. Yo me acuerdo que nos

01:36

conectamos aquí, te dije, "Bu, ha salido

01:38

una cosa." Y y no entendíamos mucho qué

01:40

era. Ahora ya todos sabemos que iba a

01:42

ser toda esta revolución de los modelos

01:43

resonadores y y también salió ese día el

01:46

notebook LM, fíjate.

01:47

>> Ostras, ostras, no lo sabía.

01:48

>> O sea, que claro, claro. O sea, fue un

01:50

día cargadísimo de novedades y estaba

01:52

nervioso. Digo, "A ver qué sale hoy."

01:54

Bueno, no ha salido muchas cosas. Alguna

01:55

cosilla interesante que podemos

01:56

comentar, pero pero bueno.

01:57

>> Pas. Sí, ha salido algo ahí a última

01:59

hora que tengas por aquí.

02:01

Mira, ha salido algo que rema a favor de

02:03

lo que me imagino que vamos a hablar,

02:04

que es de EI programación y es de la

02:05

gente de Replit, que han sacado como una

02:08

nueva versión de su sistema de agentes,

02:09

eh, la han llamado Agent 3 y es

02:13

interesante porque es un poco al final

02:14

se ha dicho mucho, ¿no? Este año 2025 va

02:16

a ser el año de los agentes y tal

02:18

>> y ciertamente está siendo el año de los

02:20

agentes un poco descafeinado eh si

02:22

hablamos de agentes en general, pero es

02:23

cierto que en programación estamos

02:25

viendo pues que sí que ahí está

02:27

funcionando bastante bien, ¿no? todos

02:28

los eh eh cloud code y todas estas

02:31

cosillas no dejan de ser agentes donde

02:33

ya tú le vas lanzando tareas y bueno,

02:36

más o menos trabaja cada vez más en

02:38

tareas de mayor horizonte. Y lo que

02:40

comenta esta gente de Replit es que lo

02:42

que han sacado hoy pues justamente es un

02:44

sistema que puede estar hasta 200

02:45

minutos trabajando en una tarea que

02:48

>> 200 minutos un montón, ¿eh?

02:49

>> Sí, sí, sí, sí. También hay que ver la

02:51

calidad de ese trabajo. Es decir, yo

02:53

también puedo estar trabajando 200

02:54

minutos en una tarea muy sencilla. La

02:56

cosa es que luego el resultado merezca

02:58

la pena y y no hayas alargado más de lo

02:59

que toca, ¿no? Pero es muy interesante.

03:01

Oye,

03:01

>> eh, luego si quieres ahondamos ahí.

03:02

>> Sí, yo había visto el tema de la

03:04

inversión que habían conseguido

03:05

justamente Repllit hoy, una inversión

03:06

bastante importante una valoración

03:08

bastante alta para ser Replit y para los

03:10

resultados que tiene, que esta yo creo

03:12

que la pregunta, la primera para que nos

03:14

lo quitemos un poco de encima, ¿cómo va

03:15

la burbuja de la inteligencia artificial

03:18

más de startup? Eh, porque yo creo es

03:20

que la gente muchas veces con esto,

03:21

[ __ ] que se cabrea, pero digo, una cosa

03:23

es la tecnología, que yo creo que es

03:25

innegable, ¿no? El impacto que tiene, y

03:26

otra cosa es a nivel empresarial y de

03:28

producto. Son dos cosas distintas. ¿Y

03:31

cómo lo ves?

03:32

>> Sí, sí. No, pues viento popa hinchándose

03:34

como siempre para arriba, ¿eh? La

03:35

burbuja.

03:36

>> Pero, ¿hay o no hay? ¿Tú qué dices?

03:38

>> Yo estoy estoy en tu postura. Yo sí creo

03:40

que la tecnología tiene un valor eh ya

03:43

innegable, o sea, ya nadie se atreve a

03:44

decir, "No, eso la la no te ofrece

03:46

valor, tiene un valor de la de la

03:48

leche." Ya luego cuando lo te lo llevas

03:50

a la parte de negocios, hay muchas

03:51

variables ahí jugando eh jugando, ¿no?

03:53

Entre ellas, por ejemplo, la competición

03:55

de modelos open source a muchas de estas

03:57

startups también le rompen un poco el

03:58

modelo de negocio. Eh, estas

04:00

valoraciones estratosféricas que

04:02

comentas. Ayer estaba hablando con

04:04

Andrés Torrubi en un directo en mi canal

04:06

y me equiparaba que Cognition, que si no

04:09

recuerdo mal es de los de Devin o los

04:11

productos,

04:12

>> pues tenían una valoración equivalente a

04:14

telefónica y es como, espérate,

04:16

>> claro, yo yo cuando me salen estas

04:17

cifras que son estratosféricas ni me

04:19

paro a pensarlas porque a mí los números

04:21

grandes de dinero me dan miedo, pero de

04:24

repente, claro, cuando te lo comparan

04:25

con empresas establecidas, pues dices

04:27

tú, madre mía. Claro.

04:29

>> Entonces, cierta ciertamente sí hay un

04:31

boom de de valoración porque entiendo

04:33

que los inversores saben que aquí puede

04:35

haber mucho dinero y es una carrera de

04:38

ratas, ratas a la carrera para conseguir

04:40

el oro y seguramente en algún momento

04:43

haya una corrección donde muchas de

04:44

estas empresas pues desaparezcan porque

04:46

es imposible que todas eh se queden,

04:48

¿no? Una seguramente acabe dominando una

04:50

o dos. Ya hemos visto esto en el pasado,

04:53

pero bueno. Sí, sí, es bastante loco.

04:55

>> Bueno, de Broser Company que la

04:57

vendieron el otro día Atlasian y yo creo

05:00

que ha sido un éxito la salida, pero no

05:03

ha sido tan bollante. Son 600 millones

05:05

de dólares, que no está mal obviamente,

05:08

pero la valoración que tuvo el año

05:09

pasado era muy similar, entonces no es

05:11

que haya crecido mucho más. Y es que lo

05:13

difícil es de dónde sacas el dinero,

05:14

¿no? Que es lo que dices tú.

05:16

>> Claro. Sí, sí. Y bueno, y también

05:18

sabemos que mucho del sector de la IA eh

05:21

requiere, por una parte, ¿no? Las

05:22

grandes empresas, grandes laboratorios

05:24

de inversiones en capital enorme, pues

05:26

necesit centros de computación para

05:27

invertir. Ahí salen las cifras h

05:30

universales estas de Open AI y compañía.

05:33

Eh, y luego las otras, las startups

05:35

necesitan mucho dinero para quemar eh en

05:37

APIs. O sea, al final un poco la burbuja

05:40

se va se va eh configurando cuando

05:42

empiezas a conectar, ¿no? Y dices,

05:43

"Vale, estas empresas consiguen

05:44

valoración, pero se la gastan en

05:46

invertir en Openi, que también gasta en

05:48

Nvidia y es como, vale,

05:49

>> tal cual.

05:50

>> A ver quién se pega el primer tropiezo.

05:51

>> ¿Has visto? ¿Viste? Seguro que la has

05:53

visto esta imagen de aquí que te voy a

05:56

poner aquí. Pam.

05:58

Vale, esta sí creo que es esta, ¿no?

06:00

Esta es la imagen de Open AI sobre

06:03

cuánto dinero iba a quemar en

06:06

>> y claro, sumándolo y tal, eran 115,000

06:09

millones de dólares. Esto es

06:10

recuperable. ¿Tú tú crees que van a

06:12

sacar Open y un producto que digas,

06:14

"Hostia,

06:16

hm, lo recupero."

06:17

>> Mira, yo te digo, si Open fuera la única

06:19

que está jugando a esto y fuera la única

06:21

que fuera a generar eh una protoagi o o

06:25

da igual, aunque no sea una AGI, pero un

06:26

modelo que te permita o que permita a

06:28

los programadores del mundo programar

06:30

mejor o que permita eh descubrir nuevos

06:32

avances científicos, ¿okay? Tú dices,

06:34

"Joder, tienes la gallina de los huevos

06:35

de oro." H

06:36

>> el problema es que eh lo que ha pasado

06:39

en el último año es que Open ya ha

06:40

perdido su posición de liderazgo que

06:42

tenía eh esa aura, ¿no?, de empresa que

06:45

parece que es la única capaz de innovar.

06:47

De repente eh pues laboratorios como XI

06:49

han llegado rápidamente a a la altura.

06:52

Eh Google no es que solamente haya

06:54

llegado a la altura, sino que muchos de

06:55

los sectores, pues por ejemplo Nia

06:57

generativa, van muy por delante de Open

06:59

AI, ¿vale? No hablemos solo de

07:00

generación de vídeo comparando Sora, que

07:02

es un desastre con lo que tiene pues

07:05

Google con BO3 o otras empresas de

07:07

vídeo, pero es que además tienen Jenny

07:08

3, que es lo de generación de vídeo en

07:10

tiempo real, que es esto. Madre mía,

07:12

ojito. Pero es que además Google tiene

07:14

computación, tiene datos, tiene

07:16

usuarios, tiene plataforma. Open AI

07:19

tiene que, o sea, para poder hacer valer

07:21

su tecnología tiene que tener también la

07:23

parte de aplicación que no tiene, ¿no?

07:25

Eh, por eso se habla mucho de, bueno,

07:27

van a sacar su propia red social, van a

07:29

sacar su propio producto, van a sacar su

07:31

propio eh navegador porque todo esto no

07:34

lo tienen. Entonces, lo que estamos

07:36

viendo es que cada vez entrenar modelos

07:38

de inteligencia artificial más potentes

07:40

no te da ese valor si no tienes el

07:41

ecosistema para sacarle partido.

07:44

Entonces, no sé, me me cuesta pensar

07:45

cómo va a ser Openi AI este juego, pero

07:47

sabemos que Samman, además de ser el

07:48

mejor en inteligencia artificial, bajo

07:50

tu criterio,

07:52

es muy buen eh es una lagartija, ¿no?,

07:55

que se mueve muy bien en tanto en la

07:57

política como en los negocios y se ha

07:59

escubido muchas veces. Eh, Open AI

08:01

seguramente si no fuera por Sammant ya

08:03

hubiera estado absorbida por Microsoft,

08:05

¿no? Que era como originalmente

08:07

Microsoft se se esperaba que iba a ser.

08:09

eh han sabido jugar bien sus cartas para

08:11

escaparse de eso. Bueno, habrá que ver

08:12

cómo les depara el futuro

08:14

>> más allá porque claro, esto es lo digo

08:17

la parte mala un poco de la IA de todos

08:20

estos tejemanejes de cómo van a van a

08:22

sacarle dinero y todo esto. Vamos ahora

08:24

por la parte buena, ¿no?, que es la más

08:26

tecnológica. Eh, ¿tú crees que en este

08:28

año ha habido una evolución brutal como

08:32

fue el año pasado? ¿O crees que se está

08:34

desacelerando o lo ves? Porque yo creo

08:37

que diferente, por ejemplo, si hablamos

08:38

de texto, sí que creo que se ha parado,

08:40

pero si vemos vídeo, pues ahí sí que

08:41

creo que la aceleración es brutal.

08:43

>> Pero, ¿tú cómo lo ves un poco esto? Eh,

08:45

¿ves que sí que la aceleración sigue

08:47

igual o que se ha parado un poquito?

08:49

Pues a ver, eh, realmente creo que ahora

08:52

mismo eh la percepción de la gente es

08:55

que sí que se ha parado, ¿no? Y creo que

08:57

viene un poco por el golpe que de la

08:58

salida de GPT5 que obviamente no ha

09:01

cumplido expectativas, pero si somos

09:03

realmente analíticos con dónde estábamos

09:06

hace un año, donde estamos ahora, 10 de

09:08

septiembre del año pasado, estábamos a

09:10

las puertas de la llegada de los modelos

09:11

razonadores. Yo lo digo mucho y creo que

09:14

Open AI se equivocó con eh la

09:17

denominación del modelo O1 preview. Yo

09:19

creo que eso debería haber sido GPT5.

09:21

Vale,

09:21

>> total

09:22

>> es te hubiera cancelado la Midu Conf de

09:24

2024, te hubiera dicho, "No puedo, estoy

09:25

cubriendo GPT5". Pero no, decidieron

09:28

llamarle de otra forma, decidieron

09:29

llamarle o uno preview, que ya sabemos

09:31

que Open AI con los namings pues tiene

09:32

un problema de la leche

09:34

>> horrible.

09:35

sé por qué o o creo entender por qué lo

09:37

hicieron y es que históricamente la saga

09:39

de modelos GPTs cada vez que tú

09:41

aumentabas la numeración tiene que ver

09:43

con que el modelo base eh tú lo

09:45

escalabas, ¿no? Lo hacías más grande.

09:47

Esto es lo que se llama la ley de

09:48

escalas en el entrenamiento y es que si

09:50

tú tienes un modelo de inteligencia

09:51

artificial y lo entrenas con más

09:52

parámetros normalmente te da un modelo

09:54

mejor que puedes utilizar. Entonces, yo

09:57

creo que Open decía, claro, este modelo,

09:59

el O1 preview, realmente no es un modelo

10:02

más grande, realmente es un modelo, es

10:04

el mismo modelo GPT4, pero que estamos

10:06

haciéndole esta técnica de que genere

10:08

tokens, genere tokens, genere tokens y

10:10

entonces ya no en el entrenamiento, sino

10:12

en la inferencia pueda gastar más

10:13

computación para llegar a mejores

10:15

resultados. Con lo cual, bueno, no tiene

10:17

sentido llamarle GPT5, llamémosle de

10:19

otra forma. Ahí a mi gusto se

10:21

equivocaron y de hecho está visto porque

10:23

ahora mismo GPT5 ya es un modelo

10:25

razonador, ¿vale? Es decir, al final se

10:27

han reconducido y han se han cargado la

10:29

saga de modelos o un o tres eh y o

10:31

cuatro y la han reconvertido a GPT5.

10:34

Claro, es que por lo que dices un poco

10:36

GPT 4.2

10:38

>> según ellos era GPT5, ¿no? Por eso de

10:41

hacerlo más grande. Lo que pasa es que

10:43

se arrepintieron viendo que no era un

10:44

avance, le llamaron 4.2 y han hecho un

10:47

han dicho, "No, vamos a pelear GPT5 con

10:49

un razonador." O sea, tienes todo

10:51

sentido de que los naming son una

10:52

[ __ ] O sea,

10:53

>> sea Sí, sí se han hecho un lío este año

10:55

porque fíjate, ellos sacaron los unos,

10:58

los modelos resonadores, ¿okay? Y luego

11:00

sacaron GPT 4.5, que es un modelo que

11:03

salió

11:03

>> 4.5, cierto. He dicho 4.2 y no es 4.5.

11:06

Sí, sí.

11:07

>> Y lo mataron luego a los 4 meses, ¿eh? Y

11:10

luego sacaron GPT 4.1. ¿Sabes que es

11:12

como, por Dios,

11:13

>> sí? Sí que era como para código, pero no

11:15

sé qué.

11:15

>> Sí, era como para código, pero no. Eh,

11:17

entonces el 4.5 originalmente iba a ser

11:20

GPT5. era como su modelo interno que

11:22

habían entrenado más grande y el

11:24

resultado era un modelo muy pesado

11:26

porque si lo haces más grande es más

11:28

pesado, más costoso y más lento. Creo

11:30

que el coste API era $60 por un millón

11:33

de tokens, era una locura

11:34

>> y era muy lento de utilizar, era muy

11:36

pesado, era más inteligente, pero

11:37

tampoco te daba un extra que justificar

11:40

ese ese gasto.

11:42

>> Entonces, eso lo que demuestra es que al

11:44

menos con lo con el nivel de computación

11:46

que tenemos a día de hoy, un modelo del

11:47

tamaño de GPT 4.5 no es viable. ¿Qué es

11:50

viable en 2025? Modelos que sean más

11:52

ligeros, porque al final el paradigma de

11:54

los modelos razonadores lo que te dice

11:55

es, oye, ejecutan bucle este modelo,

11:57

genera muchos tokens y eso te va a dar

11:59

mejores resultados. Con lo cual, a ti te

12:01

interesa que ese modelo no sea muy

12:03

grande y pesado, sino que sea más

12:04

ligero.

12:05

>> También si lo quieres utilizar para

12:06

agentes autónomos, ya sabéis que si

12:08

usáis eh un agente al final está

12:10

iterando, usando herramientas,

12:12

reflexionando sobre si está bien. Es

12:13

como un bucle donde también te interesa

12:15

que el modelo sea ligero. Entonces, en

12:17

ese sentido, por volver a tu pregunta,

12:20

sí creo que la saga de modelos eh O1

12:23

preview O1 o 3 debería haberse llamado

12:25

GPT5.1.2.3

12:27

3 y entonces ahí todos estaríamos

12:29

celebrando de que GPT5 es la leche,

12:31

porque realmente a nivel de mejoras de

12:34

razonamiento sí hemos visto un salto

12:35

brutal de lo que era GPT4O en 2024 a lo

12:38

que tenemos a día de hoy, ¿vale? Incluso

12:40

el modelo GPT4O ha tenido

12:41

actualizaciones en mayo, en en junio,

12:44

pero pero si hemos tenido un salto

12:46

brutal,

12:47

>> ciertamente hemos tenido un salto brutal

12:49

en ciertos dominios concretos. Y aquí es

12:51

lo interesante de los modelos

12:51

razonadores. Los modelos razonadores

12:53

funcionan, ahora se están entrenando con

12:55

lo que se llama el reinforcement

12:56

learning, eh, que requieren parte de

12:59

poder tú eh tener un una estrategia para

13:02

decirle al modelo si lo que ha hecho o

13:05

lo que ha hecho si está bien o está mal.

13:06

¿Vale? Entonces, para el entrenamiento

13:08

hay ciertas tareas como es la

13:10

programación o matemáticas, eh, que es

13:13

muy agradecido porque tú puedes saber

13:15

rápidamente si ejecutas el código, si el

13:17

código está bien o mal, ¿no? Si cumple

13:18

unos requisitos, pasa unos tests.

13:20

>> Claro, es determinista, ¿no? Es

13:22

determinista, es más fácil,

13:24

>> es verificable, que se dice. Vale,

13:27

>> entonces es verificable, te pasa lo

13:29

mismo con matemáticas. tú puedes

13:30

llevártelo a cierto a ciertas

13:32

herramientas y verificar si el

13:33

desarrollo matemático es correcto.

13:34

>> Claro.

13:35

>> ¿Qué pasa con escritura creativa? Pues

13:37

tú no puedes verificar rápidamente si un

13:39

texto es mejor que otro. tienes que

13:41

leértelo y eso hace que el entrenamiento

13:42

sea más lento. Entonces, por eso hemos

13:44

visto que los modelos o un o tres o cu y

13:47

también Yemini y tal, nos estamos

13:49

centrando mucho en Open AI, pero hay

13:50

modelos excelentes de la competencia,

13:52

pues son cada vez mejores en estos en

13:54

estos ámbitos y hemos visto IAs ganando

13:56

competiciones de olimpiadas matemáticas,

13:58

hemos visto eh IAs haciendo

14:00

optimizaciones dentro de todo el stack

14:02

tecnológico de Google espectacular,

14:04

mejorando los el diseño de chips, todo

14:07

eso, todo lo que son problemas

14:08

verificables, la IA sigue avanzando a un

14:10

ritmo excelente y entonces yo ahí

14:12

respondiendo tu pregunta sí creo Creo

14:13

que hemos tenido un salto brutal eh

14:15

respecto a lo que los modelos de

14:16

lenguaje pueden ofrecer.

14:18

>> Eh, hablemos de China,

14:21

>> ¿vale?

14:22

>> Hablemos de China. Eh, el tema es que tú

14:25

lo comentabas, ¿no?, de que es difícil

14:26

monetizar porque encima ahora con

14:28

modelos de código abierto, pero lo que

14:29

estoy viendo es que sobre todo hay

14:31

muchos modelos de código abierto de

14:32

China. Yama, eh, Yamaha 3 fue un poquito

14:35

decepcionante, ciertamente, no llegó a

14:38

lo que se esperaba. Ha pasado un poco de

14:40

puntillas.

14:41

Hm. Y Meta está un poco desaparecida. Me

14:44

imagino que ha estado después de hacer

14:45

todas estas contrataciones tan bestias

14:47

pues cocinando algo. Pero lo cierto es

14:49

que los que llevan la delantera en

14:51

cuanto a modelos de código abierto,

14:53

porque bueno, de código abierto, que ya

14:54

sabemos que no es literalmente código

14:55

abierto, pero los open

14:59

source, pero que son open source de

15:00

aquella manera.

15:02

El de CHGPT también es un poquito,

15:03

bueno, el de Open AI es un poco de

15:05

aquella manera, pero Deep Sick, el de

15:07

Kimi, todos estos sí que parece ser que

15:10

tienen un nivel bastante importante.

15:13

¿Crees que China se va a poder al nivel?

15:16

Porque, bueno, al nivel está, pero mucho

15:19

más, o sea, se va a poner muy muy al

15:21

nivel o incluso por delante pronto

15:23

porque, ostras, la evolución que están

15:25

teniendo es espectacular.

15:27

Sí, fíjate que el 2025 empezó en enero

15:29

con Deepsic, con la salida de Deepsic y

15:31

fue un bombazo

15:33

>> y y en parte yo a mí me alegra mucho que

15:36

esté los modelos open source porque al

15:37

final eh permite escapar un poco también

15:40

de lo que las empresas privadas te

15:42

obligan pues a subir tus datos, a poder

15:45

ejecutarlo en tu ordenador sin conexión

15:46

a internet. O sea, tiene muchas

15:48

ventajas, eh, y es cierto que a estas

15:50

empresas le hace flaco favor, ¿no? O

15:52

sea, yo creo que la estrategia que tenía

15:54

Meta eh, como llegaba tarde a la

15:56

revolución de la IA eh, frente a Open

15:58

EAI y Google era, bueno, vamos a sacar

16:00

modelos como Yama eh que sean open

16:02

source y rompemos un poco la línea de

16:04

juego. Hm, de repente llega a China y

16:07

dice, "Ojo, que podemos hacer mejor este

16:09

juego, ¿no?" Y salen pues empresas como

16:11

Dipsic, eh, y todas las que están

16:13

saliendo también de vídeo, de imágenes.

16:15

Y realmente yo, si lo vamos midiendo,

16:18

las capacidades de los modelos open

16:19

source están a 6 8 meses de lo que son

16:22

los modelos frontera. Y esto es

16:24

espectacular. Eso les obliga a los

16:26

grandes laboratorios a estar rápidamente

16:28

iterando, mejorando su sistema y lo que

16:31

hablábamos antes, ¿no? Tú tienes que

16:32

tener una capa de aplicación potente que

16:35

justifique que los usuarios digan,

16:36

"Vale, pues me quedo en chat GPT, ¿no?"

16:38

Yo creo que a futuro muchas de estas

16:40

empresas van a jugar, por ejemplo, con

16:41

el tema de la memoria,

16:43

>> que le da personalización a los modelos.

16:45

Pues si tú tienes todas tus

16:46

conversaciones con chat GPT, pues te va

16:48

a dar pereza saltarte a Cloud o a un

16:51

modelo depsic porque dices tú, "Joder,

16:53

que el modelo este me conoce mejor."

16:55

Claro, ya se acuerda de mí, ¿no? Y todos

16:56

los problemas que

16:56

>> Claro, te empiezan a atrapar un poco en

16:58

el ecosistema, como sabemos que le gusta

17:00

hacer a a estas empresas y que tiene

17:01

mucho sentido, pero es cierto que que

17:04

las empresas chinas vienen muy potentes

17:06

y e incluso están jugando con handicaps.

17:09

Pensad que hay restricciones en el en el

17:12

acceso a la computación eh por parte de

17:14

Estados Unidos, porque parte de estas

17:16

empresas privadas han hecho lobby. Es

17:18

como el capitalismo, sí, pero hasta que

17:21

no

17:22

>> el libre mercado. Entonces, de repente

17:24

han puesto restricciones de qué tipo de

17:25

GPU pueden enviar, con qué potencia. En

17:27

Nvidia ha tenido que hacer cabriolas ahí

17:29

para poner GPUs, eh, con una cantidad

17:31

computación para China. Es decir, hay un

17:33

juego geopolítico que además tiene

17:35

sentido porque no estamos hablando de

17:36

una tecnología que es paladí, sino que

17:38

17:38

>> eh a nivel geopolítico la inteligencia

17:41

artificial va a tener un una importancia

17:43

eh clave en el futuro y también el

17:45

acceso a la computación, ¿no? Lo que nos

17:47

estamos dando cuenta es que el que tenga

17:48

acceso a la computación va a poder

17:49

sacarle más partido a estos modelos que

17:51

el que no tenga acceso.

17:53

En este caso, China política dura

17:55

>> está trabajando en estos chips de

17:57

Huawei, que parece ser que el gobierno

17:59

chino obligaba a Deeps utilizar estos

18:01

chips y es la razón por la que parece

18:04

que se ha se ha [ __ ] ¿Crees que

18:06

realmente veremos un momento en el que,

18:09

bueno, ahora China con los chips de

18:10

Huawei, pero también Open AI está

18:12

diciendo que quiere crear sus propios

18:13

chips. Google también hay rumores que

18:15

quiere crear sus propios chips. Esto,

18:18

[ __ ] cambiaría un poco este monopolio

18:22

un poco que tiene Envidia, ¿no?

18:23

>> Sí tiene sentido. Es que ahora mismo la

18:26

empresa, o sea, el que se está llevando

18:27

el gato al agua en la batalla de la IA

18:29

es en Nvidia porque es el único que

18:31

ofrece eh ese stack de computación sobre

18:34

el que la inteligencia artificial se ha

18:36

construido.

18:37

>> Sí, creo que va a haber muchos intentos

18:38

y hay otras empresas que están

18:39

intentando también diferenciarse con eh

18:42

chips, procesadores un poquito más eh

18:44

exóticos, ¿no? Pues tenemos cerebras,

18:46

tenemos Grock que hacen inferencias

18:48

ultra rápidas y todos intentan comerse

18:51

parte del pastel. Y de hecho, a ver, no

18:54

es comerse tanto la cuota de mercado de

18:56

Nvidia, sino eh también satisfacer una

18:58

demanda que siga en crecimiento, es

18:59

decir, la demanda en computación va a

19:01

seguir creciendo.

19:02

>> Que yo te haya empezado a hablar de que

19:04

Repllit ahora te tiene una gente que

19:06

trabaja 200 minutos, significa que

19:08

tienes una GPU o todas las que hagan

19:09

falta para ejecutar ese modelo tirando

19:12

200 minutos por cada usuario. Eso es una

19:14

locura. Y los entrenamientos cada vez se

19:16

están haciendo más costosos porque eh tú

19:19

también quieres generar datos sintéticos

19:21

para tareas de horizonte más largo, con

19:23

lo cual tienes que generar datos

19:24

sintéticos que requieran de eh de que la

19:26

a resuelva tareas cada vez más

19:27

complejas, que requiere de más tiempo.

19:29

Entonces, las necesidades de computación

19:31

están yéndose al alza. Pese a que los

19:33

modelos cada vez son más eficientes, la

19:35

demanda de usuarios de computación cada

19:37

vez se incrementa y tiene el sentido que

19:40

Huawei, eh Google, Nvidia, todas estas

19:43

quieran hacer sus chips porque quien

19:44

desbloquee ese cuello de botella y pueda

19:46

acceder a más computación podrá iterar

19:48

más rápido, podrá generar eh mejores

19:50

algoritmos, entrenar más modelos,

19:52

modelos más grandes y satisfacer a más

19:54

usuarios. ¿Has notado esta recortada que

19:57

está pasando muchos servicios? Por

19:59

ejemplo, Anthopic es uno de los más

20:03

los que recibe más quejas, ¿no? De que

20:04

Cloud Code, por ejemplo, pues le ha

20:06

metido una recortada, una tijeretazo

20:08

brutal, pero bueno, no es el único. Ya

20:11

Open AI de una forma un poco silenciosa

20:14

había intentado alguna cosita. También

20:16

tenemos cursor, tenemos un montón de

20:18

casos, ¿no? Eh, ¿es una cosa que tú has

20:20

notado que te ha pasado y que lo has

20:22

sufrido o o no? No es una cosa que

20:24

todavía a ti te ha te ha afectado de

20:26

alguna forma,

20:27

>> ¿no? Tú lo vas notando al final cuando,

20:30

o sea, yo lo voy notando por por lo que

20:31

voy cubriendo, ¿no? Yo cuando veo, por

20:32

ejemplo, que Open AI saca GPT5 y elimina

20:35

todos los modelos del selector de

20:36

modelos, eh, es porque necesitan liberar

20:38

capacidad.

20:39

>> Eh, cuando ves que no han actualizado

20:41

Sora, es porque necesitan eh están

20:44

ahogados, le falta le falta computación.

20:47

Eh, veo las quejas de los usuarios con

20:48

el tema de cloud code. Hay muchas

20:51

señales que demuestran que efectivamente

20:52

hay un cuello de botella enorme en

20:54

computación. Por eso yo me río cuando la

20:56

gente hizo ese análisis en enero de ah,

20:59

que dips que entrena el modelo mucho más

21:01

barato que chat GPT, ergo no hace falta

21:03

computación, así que que caiga envidia y

21:05

es como, no estáis entendiendo de qué va

21:07

esto.

21:08

>> O sea, si tú liberas una cantidad de

21:09

computación porque haces el modelo más

21:11

eficiente,

21:12

>> te va a pasar dos cosas. Primero que

21:13

abaratas eh el acceso a ese modelo, con

21:16

lo cual eh la demanda va a incrementarse

21:18

porque a precio más barajo eh más barato

21:19

más usuarios y luego también es que si

21:21

un laboratorio tiene más capacidad de

21:23

computación va a serte un modelo más

21:25

potente, no se va a quedar con un modelo

21:26

intermedio y más barato.

21:28

>> Vale,

21:28

>> totalmente.

21:29

>> Y otra prueba, de hecho, de la falta de

21:30

computación es GPT5. GPT5 ya no es un

21:32

modelo enorme, ya no es un modelo más

21:34

grande o mucho más grande que GPT4. Es

21:37

un modelo, bueno, eh, que han tenido que

21:39

hacer este enrutador con un modelo muy

21:41

eficiente por una parte que funciona

21:43

fatal. El modo pro ya te cuesta 200

21:45

pavos, o sea, se va notando que la

21:48

inteligencia artificial ya según se va

21:50

gastando el dinero de los inversores,

21:52

eh, pues empieza a demostrar su precio

21:54

real.

21:54

>> Claro.

21:54

>> Es claro.

21:55

>> Yo yo esa es una sensación que tengo,

21:57

¿no? Que me da la sensación que vamos a

21:58

llegar a un punto ahora en el que

22:00

realmente vamos a pagar lo que cuesta.

22:02

De verdad, no, que hasta hace poco no

22:04

estamos pagando lo que costaba, sino que

22:06

estábamos pagando pues un poco el

22:08

conejillo de indias y tener ese hype y

22:10

disfrutarlo y tal, pero que ya estamos

22:12

viendo un poco las costuras de que

22:14

realmente esto tiene un coste importante

22:16

y aún así, aún así me da la sensación

22:19

que no estamos cerca de pagar realmente

22:21

lo que es porque veo lo de cursor y lo

22:23

que sí que está generando mucho revenue

22:25

anual, pero luego a la vez veo lo que

22:27

está quemando de dinero y dices, "Es que

22:29

no me sale las cuentas, es que te lo va

22:32

a tener que multiplicar por cinco para

22:34

que salgan las cuentas.

22:36

>> Sí. A ver, yo sí creo que si si hacemos

22:39

la comparación justa tendríamos que

22:40

comparar eh lo que nos costaba un modelo

22:42

como GPT4 con eh las capacidades que

22:45

tenía GPT4 hace un año con un modelo

22:47

como GPT4 a día de hoy. Eh, seguramente

22:50

eh sea mucho más barato ejecutarlo hoy

22:53

>> porque hay alternativas open source que

22:55

puedes ejecutar en tu ordenador eh

22:57

mejores incluso que lo que teníamos hace

22:58

un año. O sea, creo que el problema es

23:00

que al mismo tiempo que sí los modelos

23:01

se van haciendo más baratos, eh, luego

23:04

es cierto que las empresas tienen que

23:05

encarecer porque a lo mejor el dinero de

23:07

los inversores se va gastando, al mismo

23:09

tiempo las capacidades siguen subiendo,

23:10

o sea, tenemos cada vez modelos más

23:12

competentes y eso se paga, ¿vale?

23:14

Entonces, seguramente llegamos a un

23:16

punto en el que, y yo ya he escuchado

23:18

testimonios de gente que usando cloud

23:20

code pagan las eh eh cantidades enormes

23:24

de dinero, pero porque le sale rentable,

23:26

porque realmente eh hacen las

23:28

matemáticas y dicen, "Vale, es que yo

23:29

cuando ejecuto 20 agentes para hacer 20

23:31

proyectos en paralelo, eh, pues el

23:34

retorno que obtengo de esto es mayor.

23:36

>> Entonces sí veremos gente pagando una

23:37

cantidad

23:39

>> absurda

23:39

>> que no nos cabe la Sí. absor de de

23:41

dinero, pero porque realmente el valor

23:43

que estos módulos pueden ofrecer va a

23:45

justificarlo.

23:46

>> Carlos, ¿cuándo ha sido la última vez

23:48

que has alucinado con la IA? Por última

23:50

vez, que hayas dicho, "Hostia, me cago

23:52

en la [ __ ] esto es increíble."

23:54

>> Es muy difícil, tío, porque ya creo que

23:56

estamos eh anulados, ¿no? De de tantas

23:59

novedades.

24:00

>> Yo yo lo comparo mucho con vivir en el

24:01

mundo de Harry Potter cuando tienen

24:03

magia, pero la usan de forma

24:05

supermundana, en plan que no le llama la

24:06

atención porque, [ __ ] ya está ahí, no

24:08

es magia. Pero he de decir que aún así

24:11

este año eh y hace no mucho flipé con

24:13

Jenny 3. Jenny 3 creo que el que haya

24:15

visto los resultados, que es este modelo

24:17

de Google de generación de vídeo en

24:19

tiempo real, que puedes interactuar con

24:20

el mundo,

24:21

>> eh, aun cuando sabíamos que algo así iba

24:24

a llegar, sorprende verlo funcionar.

24:26

>> Es espectacular. Yo creo que es, estoy

24:28

de acuerdo contigo que es es como lo que

24:30

más me ha volado la cabeza este año.

24:32

Como que hacía tiempo que no había algo

24:34

en inteligencia artificial que yo decía,

24:36

"Hostia, esto es increíble." O sea, me

24:39

sorprende, ¿no? Oye, han mejorado esto

24:40

de vídeo, han mejorado esto, pero

24:41

[ __ ] Jenny 3, me parece increíble que

24:43

te genere en tiempo real un mundo y que

24:46

sea encima interactivo que te puedas

24:47

mover.

24:48

Me parece esto, esto

24:50

>> es una barbaridad, o sea, que que tú te

24:51

puedas mover por ese mundo y decir, pues

24:52

me voy a ir por el palmeral a la derecha

24:54

a ver qué qué hay por ahí a [ __ ] un

24:56

coco. Es bastante loco. Entonces sí es

24:59

de lo último que ha salido que me ha

25:00

sorprendido. Si quito Jenny 3, sería BO3

25:03

de Google también. Y eso habla mucho de

25:06

el la situación de poder que tiene

25:08

Google ahora mismo, que desde el año

25:10

pasado que pues te digo, ¿no? En la midu

25:12

salió el notebook LM, que también nos

25:14

voló a todos la cabeza, pues en materia

25:16

de generativa Google está haciendo los

25:17

deberes muy bien.

25:19

>> Totalmente. De cara al año que viene,

25:22

¿qué qué esperamos? O sea, ¿cuáles son

25:25

tus hot takes o cuáles son? No sé,

25:27

porque el año el año pasado yo creo que

25:29

hablamos de los agentes y la verdad es

25:31

que los agentes es verdad que han

25:32

mejorado, pero es lo que decías, ¿no?,

25:34

que muy enfocados a programación. Yo al

25:37

menos tengo un poco la percepción que

25:39

estoy un poco decepcionado de cómo iban

25:41

a ser los agentes, esa idea de operator

25:44

y todo esto y se ha quedado muy

25:46

descanfeinado, excepto para

25:48

programación. No sé si de aquí a final

25:50

de año o incluso de cara al año que

25:52

viene, qué es lo que ves así realmente

25:54

que que tú esperas que sabes que va a

25:56

pasar o que te gustaría. sabes que

25:58

dices, "Hostia, a mí lo que me gustaría

25:59

es que pasase esto,

26:01

>> ¿no?" Yo creo que, a ver, los agentes

26:03

todavía están en una fase de desarrollo.

26:05

Creo que a nivel de demo es bastante

26:07

impresionante cuando ves el chat GPT

26:08

Agent funcionando y tal,

26:11

>> eh, es bastante interesante y hay

26:13

algunos casos de uso para los que es

26:14

útil, pero todavía es lento y costoso.

26:16

Entonces, yo creo que a mí personalmente

26:18

me encantaría un año en el que no pasara

26:20

nada en inteligencia artificial,

26:22

>> pero hiciéramos un por 10 en velocidad,

26:24

por ejemplo.

26:24

>> Bu,

26:25

>> vale, que todo funcionara mucho más

26:26

rápido. Ya.

26:27

>> Y y y cuando eso ocurriera, realmente

26:31

tendríamos un montón de beneficio de la

26:33

inteligencia artificial, porque todavía

26:34

hay muchos procesos, incluso programar,

26:36

eh todavía estamos ahí sentados mirando

26:38

la pantalla mientras el código se genera

26:39

y es es lento y pesado. Imagínate que

26:42

aceleras esto un por 10, que hacemos más

26:44

eficiente a todos los programadores del

26:46

mundo, que eh sistemas como el chat GPT

26:48

agent funciona más rápido. Eso me

26:51

gustaría bastante. Y hay algunas hay

26:53

avances pues en lo obvio, ¿no? Los

26:55

modelos de lenguaje cada vez se vuelven

26:56

más eficientes y año tras año el coste

26:59

de los modelos se vuelve más barato, o

27:01

sea, con capacidad de seteris paribus.

27:04

Eh, pero luego es cierto que

27:07

que eso que yo modelos más rápidos es lo

27:10

que pido a los Reyes Magos.

27:13

>> Y oye, ¿crees antes lo has mencionado la

27:15

ley de escalas, pero crees que la ley de

27:16

escalas se ha agotado?

27:19

Creo que no, o sea, no creo que se haya

27:20

agotado, por ejemplo, la de

27:21

entrenamiento, no creo que se haya

27:23

agotado,

27:24

>> sino que está en un nivel ahora que se

27:26

vuelve incómodo para la cantidad de

27:29

computación que tenemos,

27:30

>> ¿vale? Es decir, un modelo como GPT 4.5,

27:33

a lo mejor si tú lo pones a en modo

27:35

razonamiento

27:37

por el propio aprendizaje de haber

27:39

pasado a un modelo más grande, ese

27:41

conocimiento interno lo puede aprovechar

27:43

mucho mejor que un modelo más ligero. Y

27:45

a lo mejor ese razonador es mucho más

27:47

potente, pero ¿qué pasa? que no tiene un

27:49

sentido económico.

27:50

>> No tiene un sentido económico poner un

27:51

modelo tan costoso en 2025 con la

27:53

cantidad de computación, con el hardware

27:55

que tenemos, eh aerar 200 minutos, por

27:59

ejemplo. Entonces, eh creo que no se ha

28:01

agotado, sino que bueno, que realmente

28:05

es muy costoso todavía. Habrá que ver en

28:07

el futuro, habrá que ver con modelos más

28:09

grandes y más potentes, si tiene

28:10

sentido. Igualmente, creo que estamos en

28:12

una fase ahora en la que estamos

28:14

decidiendo si queremos modelos más

28:15

grandes y pesados o modelos más pequeños

28:17

y ligeros que hagan uso de herramientas

28:19

y que por tanto descargue las

28:21

necesidades de tener modelos tan

28:22

grandes. Porque, ¿de qué nos sirve tener

28:24

un GPT 4.5 que sepa quién es Carlos

28:26

Santana Vega? Pues nada, realmente ese

28:29

dato si puede usar una herramienta de

28:31

forma efectiva y buscar por internet,

28:32

pues lo podemos descargar de ese tamaño

28:34

de parámetros y tener un modelo más

28:35

ligero.

28:36

>> Claro. Bueno, yo creo que la idea del

28:38

enrutador inteligente este de Open AI es

28:41

buena idea. Lo que pasa es que hay que

28:42

afinarlo mucho,

28:43

>> que modelos pequeños hiperespecializados

28:46

es la clave, que al final el mixture of

28:48

experts es un poco esta idea, ¿no?

28:49

llevada, eh, pero bueno, separados los

28:52

modelos quizá, que es lo que dices tú,

28:53

¿para qué quieres el conocimiento de

28:55

geografía, pues a lo mejor podemos tener

28:57

modelos más específicos que tengan

28:58

cálculo, que por ejemplo todavía le

29:00

cuesta mucho el cálculo, bueno, pues es

29:02

que igual necesitamos un modelo

29:03

específico para esto que sepan rutar,

29:05

¿no?, en todo momento, pero claro,

29:06

entonces necesitaremos un modelo

29:07

enrutador que también sea lo

29:09

suficientemente inteligente para

29:10

enrotarlo todo, ¿no? Ojalá, ojalá. Pues

29:14

Carlos, muchísimas gracias por pasarte,

29:16

de verdad, un verdadero honor tenerte y

29:18

hablar de de algo tan interesante con la

29:20

inteligencia artificial porque, bueno,

29:22

aparte que lo tenemos en nuestro día a

29:23

día y tal,

29:24

>> se habla poco eh de inteligencia

29:25

artificial.

29:25

>> Sí, se habla demasiado poco. Yo creo yo

29:28

creo que deberíamos ¿Quieres pasarte

29:30

mañana y hablamos 4 horas?

29:31

>> Sí, sí, sí. No, no, ya la próxima vez

29:33

hablamos de carreras y del estado.

29:35

>> [ __ ] sí, sí. que encima Carlos, que

29:36

ahora he visto que está volviendo que

29:38

estás corriendo, que que nada, que me

29:40

encanta ver que el running está llegando

29:41

también al mundo de inteligencia

29:43

artificial. Yo le paso al Estrava, el

29:45

Strava se lo paso a HG GPT para que me

29:46

diga, "Oye, ¿cómo lo he hecho hoy?" Y

29:47

tal

29:48

>> y me dice, "Bueno, mejor no opino." Me

29:51

dice el cabrón.

29:52

>> "Pero cómo no va cómo no va a opinar,

29:53

Midu si te hace media Barcelona en un

29:55

día." Madre mía.

29:56

>> Qué va. Bueno, Carlos, te mando un aband

29:59

un abrazo muy grande. Cuídate. Nos vemos

30:01

en la siguiente. Chao.

30:03

>> Bueno, pues será Carlos Santana. 12V en

30:06

redes sociales, es divulgador de

30:07

inteligencia artificial, por supuesto,

30:09

podéis ir a su canal de YouTube. Ayer

30:11

mismo, y lo tengo pendiente todavía,

30:13

hizo un directo de no sé cuántas horas,

30:15

pero estuvo un buen rato porque yo es

30:17

que estaba estaba en directo, pero

30:18

estuvo hablando justamente de esto, ¿no?

30:20

Si la AGI ha muerto, si todavía está

30:22

disponible, no sé qué. Así que os

30:24

recomiendo, estuvo 2 horas y media ahí

30:26

hablando con Andrés Torrubia, le echáis

30:28

un vistazo muy interesante, 12SV, lo

30:30

tenéis ahí en YouTube, en Twitter, en un

30:32

montón de sitios y no os perdáis todo lo

30:34

que tiene que comentar sobre

30:35

inteligencia artificial porque es

30:36

superinesante. Ya sabéis que sabe sabe

30:38

un montón y muy interesante su opinión

30:41

al respecto. La verdad es que muy de

30:43

acuerdo con lo que lo que comenta. Sí

30:45

que sí que veo que que ha bajado un poco

30:48

el suflet, ¿eh? Ha bajado un poquillo

30:49

suflet, pero es normal, o sea, y estoy

30:51

de acuerdo con él. Eh, yo creo que una

30:52

cosa que sería muy interesante es que

30:55

ahora eh veamos mejoras de velocidad,

30:58

¿no? mejoras de velocidad que no de

31:00

realmente o de costes, velocidad, costes

31:03

y cosas así, en lugar de ser mejoras de

31:06

que sea más inteligente, porque me da la

31:08

sensación que GPT5 pues más inteligente

31:10

y tampoco noto yo muchas Cosas.

Video Information

YouTube ID: N-tXnT_UbbA
Added: Sep 13, 2025
Last Updated: 5 months ago