All Episodes

December 1, 2025 65 mins

Recuerda que también puedes escuchar La Tertul-IA en su canal específico en

Spotify: https://open.spotify.com/show/2trIE4WvCf3AWzNaLodxC4?si=d2eec754e56d48de

Apple Podcast: https://podcasts.apple.com/es/podcast/la-tertul-ia-inteligencia-artificial-y-m%C3%A1s/id1723736263

Mark as Played
Transcript

Episode Transcript

Available transcripts are automatically generated. Complete accuracy is not guaranteed.
(00:02):
¿Qué tal damos la bienvenida a nuestra audiencia?
¿Una semanita más en la tertuliaya enfilando el mes de diciembre
nos queda poquito de año de año,2025 año voy a decir lo mismo
que dijimos en 2024, sin duda elaño de la I a 2025 quién puede

(00:25):
denegarlo, verdad? Así que sí.
¿Ya vamos, vamos enfilando, vamos, vamos quemando slots y
bueno, a lo mejor habrá que hacer un especial de nuevo año
en algún momento, verdad? ¿Para como hicimos el año

(00:45):
pasado? Pues hacer un poco de conjeturas
de lo que va a pasar en 2026 me acuerdo.
No sé si os acordáis vosotros deque dijéramos alguna cosilla más
de que 2025 iba a ser el año de los agentes.
Los agentes venían a revolucionar las industrias en

(01:08):
en general. ¿YY bueno, pues podremos hacer
retrospectiva en un momento determinado, verdad?
¿Por supuesto, la haremos en conjunción con mis copilots que
me acompañan hoy los 2 clásicos,empiezo por ti, Corti,
bienvenido de vuelta, qué tal estás?
Muy bien, con muchas ganas. Aunque escucho, escuché el de la

(01:29):
semana pasada. Digo, joder, cuando no estoy yo
mejora. Entonces, claro, esto de tener a
Javi de sustituto es jorobado. Me lo ponéis complicado.
Las nuevas generaciones vienen dándole fuerte.
Efectivamente, y dentro de poco será Javi el único que estará a
los mandos del Podcast Javi con otros 2 agentes que se habrá
hecho. Esto con sus agentes múltiples

(01:49):
de múltiples personalidades. Sí, sí, sí, de todas formas, lu.
Lo siento, pero hoy vamos a sacar el tema de qué ha pasado
este año con los agentes, aunquesea al menos por encima.
Otra cosa es que luego queramos hacer un especial y eso eso
siempre se puede hacer. Me parece perfecto, sí, sí, hay
que hablar del tema porque claro, es el elefante en la

(02:09):
habitación. Mucho agente, mucho tal, pero
luego a ver dónde están los agentes, que yo los vea.
¿Y tú, qué tal funky? Yo muy bien, muy bien, con
muchas ganas de que de que lleguen las vacaciones.
¿Si eso es una palabra que suenahaber vivido en algún momento,
no? Y a ver si ahora podemos pasar

(02:29):
unas Navidades tranquilitas es mi mi máxima aspiración en este
tiempo. Bien hablaremos con Open II, con
Google lean Trophy para que echar un poco el freno en
Navidades en. Acabamos de tener cosas, pues

(02:49):
lanzamientos de estos no, que les encantan y se responden los
unos a los otros y tal. En la semana pasada hablamos de
geminai 3. No hemos tenido un movimiento
por parte de Antropic bastante fuerte, también con uso opus
4.5. ¿YY sigue ahí, sigue la guerra,

(03:12):
no? El otro día hablábamos de que de
si ellos tendrían unos modelos mucho más avanzados que usan
esto, esto siempre se ha hablado, no en la en la batalla
por ejemplo de los chips de Intel contra MD, de las GPUS con
Nvidia contra MD también las batallas clásicas.
No creía que que te iban dando las actualizaciones.

(03:34):
Bueno, siguen haciéndolo. ¿Las actualizaciones con una
cierta periodicidad y con cuentagota siempre se ha especulado
con que ellos realmente ya tienen la tecnología de dentro
de 15 años y solo la usan ellos,no?
Ocurrirá y la usan para sacarla que te cuentan.
¿Para sacarla nueva, claro, efectivamente, y a TI te la van
dando poquito a poco porque eso es mucho más rentable, no?

(03:58):
Si lo miras así quizá no sea lo mejor, pero para sacarnos la
pasta. ¿Vete a saber si no nos están
haciendo lo mismo y ellos tienenun un cacharro que les hace
todo, EH? El modelo definitivo y.
Y van diciendo, dame un modelo que sea un 1% mejor que la
competencia ahora mismo, porque al final la sensación

(04:18):
continuamente, el modelo que sale se pone top uno un poquito
más y así y así y así dices jope, no sé.
Totalmente, pero vamos, que no hay necesidad de hacerlo en
Navidades. Yo hace hace unos meses escribí
un post en en LinkedIn hablando de Serguéi busca no sé si os

(04:39):
suena y de de lo que hacía con el salto de de altura, que
básicamente era cada vez ir superándolo en 1 cm para
llevarse la pasta por haber batido el récord del del mundo
es lo que nos hacen con los modelos.
Ahora duplantis hace lo mismo también, pero porque he
aprendido, pero con 1 m más altoque busca.
Es es brutal lo de este hombre. Hace lo mismo nueva generación,

(05:02):
pero eso a ver, podemos decir que que busca.
Era un pirata por hacer esto, pero no, lo que hacía era sacar
el máximo partido a un modelo que se habían inventado otros,
porque a la golden four te pagaban por récord mundial.
¿Y entonces él decía, pues no vamos a perder dinero, no?

(05:23):
A mí me parece perfecto, claro. Y en un caso como el suyo,
evidentemente. O sea, es que es evidente que
esta gente puede saltar más. Optimización pura de negocio.
Pero claro, siempre pueden decirno los los KPI.
Estos no los he puesto yo. A mí me vienen con este rollo,

(05:46):
pues yo les hago el máximo partido, oye, Ole y luego
también, pues dan dan mucho juego en prensa y todo eso no
sé. Si si saliera alguien que
batiese un récord del mundo de la misma forma que si saliera un
modelo que no fuésemos a ser capaces de superar en cuanto a
performance en los próximos 5 años, pues se quedaría todo muy

(06:11):
frío, no, igual, no tendríamos ni podcast.
Pero qué pasó cuando llegamos a la Luna, que como ya no se podía
ir mucho más allá, pues dejamos de de mirar la Luna y nos
quedamos al ladito de la Tierra en la orbita.
Eso es. Eso que si no tenía mucho
sentido, así que bueno, pues nada.
Entonces hay que acostumbrarse. Así son las cosas YY así se.

(06:33):
Las hemos contado. YY bueno, pues eso hablaremos
también de es verdad que que lossaltos tecnológicos ya son estos
incrementos, son pequeñitos, no,no hemos vivido con GPT 5 ni con
yeminide 3 ese. ¿Eso que se anticipaba no del

(06:56):
del salto cualitativo YY ahora quizá y hablando yo de agentes,
como decíamos antes, quizás era el momento de ver cómo le
sacamos el máximo partido, a lo que ya tenemos no tanto de
buscar que mañana nos resuelva el problema, que por ejemplo en
el tema de imagen y vídeo sí queestá pasando esto no?
Que que dices, hostia, sí, aquí sí, que de repente salen cosas

(07:19):
que que solucionan todos los problemas que teníamos.
De golpe y claro que será lo siguiente, lo siguiente, ya
estamos en un punto que bueno esto estamos aquí sin hablar de
noticias. ¿Cuñadando un poco, Eh?
Pero. Vamos, sí, sí, porque todo esto
que estás diciendo va a salir inevitablemente hoy.
¿Sí, así que pero bueno, que simplemente decir eso, que que
os metáis en TikTok y en Instagram a ver los vídeos ahora

(07:41):
ahora hay un tren de diferencias, si está hecho con I
a o qué vídeo está hecho con I ay cuál es real y ya no es tan
fácil, Eh? De todas formas hay que has
dicho tú lu, no como que ahora en en imagen y vídeos te han
resuelto los problemas, pero yo creo que en el fondo le pasó lo
mismo que que al resto. ¿Es decir, somos capaces de

(08:02):
hacer imágenes y vídeos superrealistas, pero lo
complicado es hacer lo que quieres hacer, que lo mismo pasa
yo con el resto de cosas, no? O sea, la fase de de production
reading de de llevar esto a la realidad.
Que luego lo hablaremos con la noticia, que lo tengo frankie y
agentes y tal. ¿Yo creo que ahí es dónde está
la chicha, no? Es decir, cómo empezar a poner
esto realmente para que más alláde que mole y lo puedas

(08:24):
compartir en TikTok resolvar problemas que tenemos por
delante y eso es un poquito más tricky que se están resolviendo
muchas cosas pero pero queda mucho por resolver.
Totalmente totalmente, así que bueno, vamos, vamos si queréis
con las noticias. Démosle.
¿Corte y Dale tú que nos traías algo sobre un artículo que viene

(08:48):
a a a sentar unas nuevas bases? A lo mejor no o no, no en
cuenta. Eso eso se supone.
La gente de Google ha presentadoun nuevo enfoque para conseguir
que los LLMS sean capaces de seguir aprendiendo una vez
entrenados que al final el artículo es Next Learning, the
illusion of deep learning architecture.
Que mucha gente en redes sociales lo está equiparando a

(09:11):
la tensión. Solo unit versión 2.
Que este es el para quien no lo sepa, el el Paper o el artículo
seminal que dio lugar un poco a todo lo que estamos bueno a
todos los LLMSY las arquitecturas a día de hoy un
poco. El problema fondo que que se
basa el artículo y el enfoque que ha presentado el equipo de
Google es que a día de hoy, con los LLMS el el.

(09:34):
Cuando tú interactúas con ellos tienen 2 tipos de información,
no lo que está en el modelo ya entrenado y luego el contexto
que le estás pasando. Pero parece ser que los estos
modelos lo que les cuesta mucho es aprender cosas nuevas, porque
según van aprendiendo cosas nuevas se empiezan a olvidar de
forma incontrolada. ¿Cosas del pasado, no?
Al igual que los seres humanos somos capaces como de ir

(09:56):
ajustando nuestras neuronas a laneuroplasticidad, vamos
ajustando nuestras neuronas. En teoría, sin olvidar nada del
pasado y no aprendiendo cosas nuevas, salvo salvo enfermedades
y casos patológicos, pues los LLMS.
¿Lo que les pasa es que cuando les pones a aprender cosas
nuevas ya una vez entrenados a escala, pues empiezan a perder
información y ellos plantean pues un bueno, quien quiera que

(10:17):
se lea el P, pero nos vamos a meter un poco a ver los
entresijos, pero un modelo orientado a cómo conseguir que
no? Que los LLMS tengan como una una
memoria más a largo plazo y que sean capaces.
De ir reaprendiendo aprendiendo nuevas cosas una vez conseguido
esto, que es lo que nos va a permitir, pues muchas cosas,
entre otras cosas, a día de hoy estamos hablando antes no que

(10:38):
cada 2 * 3 salen nuevos modelos.En el fondo cada modelo es cojo
un modelo, ahora hago unos ajustes y entreno, no hay una
fase entrenamiento. Esto nos permitiría tener
modelos que se van evolucionandoa lo largo del tiempo.
¿Y luego en en la capa de aplicación nos permiten muchas
cosas, no? Por ejemplo, en Chati PT Hay un
tema de memoria, pero está limitado y de repente se empieza

(11:00):
a perder. Se trabaja mucho con con textos
largos para conseguir un poco esta no este efecto de que
realmente van aprendiendo. Oye, pues si tenemos el LM
sistemas que realmente son capaces de ir aprendiendo sobre
la marcha en la fase de inferencia y no pierden el
pasado, pues bueno, las aplicaciones son son múltiples,
me ha parecido bastante interesante, sí que es verdad

(11:21):
que también. Leyendo un poco el artículo creo
que quedan cosas por por resolver.
Seguramente esto es el inicio detodo, una de todo una línea de
investigación que iremos viendo hacia dónde va, pero bueno,
bastante prometedor. No sé si le habéis podido echar
un vistazo y que os ha parecido.A mí me parece que va siendo
hora de que empecemos a a plantear soluciones de fondo a

(11:48):
los problemas que nos están planteando.
Los en el mes porque estamos abrazando el paradigma con
demasiada fuerza. ¿Justo la semana pasada
hablábamos de la salida de meta de Jean le coun y de los World
Models y tal no? Y parecía como un paso en la
dirección contraria. Esta YY justo dijimos esto, no

(12:15):
confiamos en Google para que sigan haciendo investigación
fundamental. ¿Y planteen una forma de
solucionar los problemas que tenemos de manera más profunda,
no con plugins digamos no que esun poco como se ha trabajado con

(12:38):
los EDMSYY? Bueno, dentro de que este
approach que nos están presentando no es solo no
estamos hablando solo de modelosde lenguaje, no es una nueva
forma de. Plantear el problema del machine
Learning en general o del deep learning, vale, pero al final lo
que lo que motiva este tipo de de investigaciones son problemas

(13:05):
que tenemos en en la vida real, como los problemas de límites de
contexto. Memoria esto del.
¿Cómo le llaman Catastrophic foreting o algo así?
No de que que dicen vale, vale, esto no va muy bien, pero del
otro ya me he olvidado este tipode cosas, pues son cosas que

(13:27):
traen problemas a la aplicación real y con la inteligencia
artificial. El gap entre la investigación y
la aplicación real es muy pequeño hoy en día.
Entonces bueno, pues es un cicloque tiene que realimentarse.
A mí me parece que que me reafirmo en lo que dije la
semana pasada, confiamos en Google.
Para seguir haciendo investigación fundamental,

(13:48):
porque parece que otros están reorientando los esfuerzos a
seguir en la carrera esta de losbenchmark del LLM.
¿Si ya les interesa poco más, no?
Así que me alegro de que de que haya este tipo de cosas.
Luego hablaban también de de queeste modelo podía traer mejoras

(14:10):
en cuanto a a eficiencias, eficiencias durante el
entrenamiento y eficiencia, luego en costes en en inferencia
no. YY eso es un tema también
relevante a día de hoy. Por lo que leía que o sea, yo he
leído igual que vosotros, no me he podido tampoco meter en
profundidad a entender todo el paper, pero estaba sobre todo
consultando lo que lo que decíanotros y básicamente decían que

(14:32):
que no hacía falta reentrenar. Como está ocurriendo ahora, no
cada vez que haces un nuevo modelo tienes que empezar desde
cero, sino que aquí ya cogías loque tenías, ibas
incrementalmente, mejorándolo, lo cual ya estás, estás
ahorrando tiempo YY dinero. Y luego decía también que los
modelos ya no tenían por qué llegar a ser tan grandes.
En muchos casos no, pues todo eso y teniendo en cuenta hacía

(14:55):
lo que vamos, que que luego luego saldrá seguramente el
comentario por ahí, pero estamos.
Estamos hablando de tener que duplicar.
La infraestructura necesaria para unos modelos cada muy poco
tiempo YYY meter mucha chicha ahí y de de las limitaciones que
eso nos impone, no a nivel de dechips, a nivel de energía YY de
todo, pues esto puede ser a lo mejor un paso también en ese

(15:17):
sentido hacia no sé si una solución, pero por lo menos no
no seguir creciendo de forma exponencial como como lo que se
está planteando. Y claro, lo que no sé también.
Si esto se aplica a modelos propietarios, pues es lo de
siempre, pero si si esta tecnología también se empieza a

(15:37):
aplicar en modelos open source, ese re entrenamiento o así fine
tuning que ahora hay que hacer, a lo mejor también puede ser
mucho más potente, más permitir tener esos modelos más de nicho,
más verticales. No que que hemos comentado otras
veces, no sé, pinta desde luego bastante bien, con independencia
de de todo lo que ya habéis contado, pero pinta bastante
bien, como como futuro. ¿Ahora cuándo vamos a tener

(15:59):
esto? Pues claro, con los tiempos que
manejamos ahora, desde que atention issue de Unit fue
bueno, pues se publicó hasta querealmente empezamos a tener algo
en producción en condiciones pasado en años, pues no sé qué
es lo que va a ocurrir aquí. Sí, veremos.
Sí que es verdad que ahora que está todo el mundo como muy
acelerado, no con con todo esto.Entonces si realmente le ven

(16:21):
potencial, entiendo que un Google dirá, ostras.
Esta vez sí que lo vamos a exprimir nosotros primero, pero
bueno, vete a saber. ¿Realmente la la infraestructura
la tienen, no? Es decir, si si hiciese falta un
una inversión gigantesca en máquinas no hierro para poner

(16:46):
esto en marcha, pues sí que podríamos decir, ostras, pues a
ver quién a ver quién se tira a la piscina, pero es que claro.
Es que esta gente tiene todas las máquinas del mundo.
¿En cuanto a G PU, cuando cuandosalió a tensión y sole united,
yo recuerdo aquellos años, pues que tú te bajabas un un vert,

(17:09):
no? Y te ocupaba cuatro gigas.
¿Y tenías un problema, no? Porque decías, bueno, yo que sé
mi. Mi kubernetes o mi mesos no
acepta GPUSY. Dónde meto esto en memoria
necesito cosas más grandes y tal.
¿Y era como que nos estábamos adaptando a un nuevo paradigma

(17:31):
en el que los modelos empezaban a ser mucho más grandes, pero ya
podía jugar con ello, no? Y ya empezaron a salir
aplicaciones. Pero es que hoy en día no es un
problema poner en producción unacosa gigantesca para esta gente,
si esto realmente también es máseficiente.
Sí que ha habido con con las arquitecturas alternativas que

(17:53):
se han ido cociendo en los últimos por parte, por ejemplo,
del Grupo de de Meta Affair, no la arquitectura de titans, el
que eso ya tiene un año, luego el mamba, por ejemplo, que fue
que fue una cosa que este año hemos tenido mamba 2 no como

(18:15):
arquitectura alternativa lo comparan aquí, en el Paper, en.
Este tipo de cosas se han llevado a producción realmente
sin mayor dificultad. Otra cosa es que lleguen a
productos y aplicativos para usuarios finales porque
resuelvan problemas de una manera medible por encima de lo

(18:38):
que son los grandes modelos de lenguaje que tenemos hoy en día,
es decir, para que llegue al usuario final en un uso
estándar. ¿Tendría que que superar a un
GPT 5, no? O cosas por el estilo.
Y claro que en esos modelos se mete mucho trabajo también de

(19:00):
fine tuning de pues esto que hace GPT 5, no de de tener un
router que decide qué modelo usar en cada momento.
Y todo eso, pues claro, hay hay como una capa por encima que ya
no es el modelo, sino que es. Todo eso que ya se ha invertido
en ponerlo en marcha, pero yo creo que sí, que tienes la

(19:23):
capacidad de sí. O sea, es que son Google, son
metas. Bueno, amba es es una
universidad, no carne guimelon creo YY princeton no.
Los que estos, quizá los pobres tendrán que que pedírselo a
alguien. Pero pero Google y metas si a

(19:43):
ellos les da la gana, lo que sí que es.
¿Verdad? A ver, que tenemos por aquí una
noticia en relación a esto. La cuento muy muy rápido que
encaja es que Google está diciendo que tiene que doblar su
capacidad de cómputo cada 6 meses para satisfacer las
necesidades. O sea, a lo mejor también una
cosa que puede pasar es que o sea sobre el papel pueda, pero
en la en la práctica, con el crecimiento actual de todos los

(20:05):
servicios de ella que están teniendo, pues que no sean
capaces de de dotarle de. De infraestructura para que esto
pase, porque lo bueno, lo mismo está pasando con todo el resto
no que no todas las tecnológicasse están metiendo en mucha infra
en en servidores, que de ahí también un poco los despidos y
demás para para cambiar impresiones de software a
hardware. Así que vete a saber también.

(20:28):
Sí, sí. Están subidos ahí en ese en esa,
en esa hora, no con la vorágine de.
¿De estar los primeros siempre YY eso tiene un coste tremendo y
cambiar de foco ahí es una apuesta muy seria, no?
Pero bueno, como. He dicho antes, son Google.

(20:51):
Google de. ¿Repente tiene la capacidad de
poner un equipo con un equipo, quiero decir, mucha gente ya lo
hacen, no? Que parece que no hablan entre
ellos. La gente que que hace yemina y
con la gente que hace notebook en con la gente que hace ahí
estudios, con la gente que tal van a su puta para ver igual te

(21:12):
meten otro que trabajen en un producto con con este tipo de
arquitectura y ya está y tiran para adelante como si fuera una
empresa aparte, así que bueno, ya veremos cómo se lo montan.
Así que bueno, yo. Creo que que veremos novedades
en este sentido porque hace falta.
Hacen falta cambios. Yo creo y sobre todo que veamos

(21:35):
ese avance que todo el mundo estaba esperando, no un poco más
grande en determinado tipo de cosas.
Bueno, si os parece pasamos a lasiguiente y hablamos ya de
agentes. Franky, esto muy bien, hemos
puesto el hype por las nubes al principio.
Bueno, efectivamente, los los agentes seguramente son.
Como yo se lo he escuchado a corte y decir alguna vez, como

(21:57):
el sexo entre adolescentes, no todo el mundo habla de ellos,
pero ninguno sabe muy bien cómo.¿Cómo van?
Seguramente seguramente bueno, yo recuerdo a primeros de año,
efectivamente, decir que este iba a ser el año de los agentes,
no, no ya solamente de la I a, sino decíamos, se plantea como
el año de los agentes Inteligentes.
A estas alturas no sé si le pedimos a nuestra audiencia, se
me ocurre que nos envíen un bizum de 1 EUR cada uno que haya

(22:21):
hecho o haya visto un agente en producción de verdad, no un
tema, un no, un flujo de noche L, sino la gente.
Yo creo que no nos da ni para irnos a comer al McDonald's,
básicamente no, porque la realidad es que no ha habido, no
ha habido tanto, se se habrá intentado cosillas, pero no ha
habido tanto, ha salido algunos,algunos documentos, algunos

(22:41):
informes precisamente diciendo que.
Pues eso, que esto los agentes no están teniendo retorno, no
están teniendo roi, no están, noestán, no están.
Pero justo leía esta semana pasada un artículo en el Wall
Street Journal de en el que se hablaba el título es, las
empresas empiezan a ver un retorno en los agentes de
inteligencia artificial. Lo que parece que.

(23:03):
Estaba está contradiciendo a toda esta ola que nos estábamos
encontrando en el en los últimosmeses y no sé si es un efecto
pendular o simplemente un sesgo a la hora de de haber hecho el
análisis. En este artículo se se ponen
varios ejemplos. Habla el autor, pues en un caso
de del Banco de de Nueva York que que dice que tiene que
presume de alguna forma de tenermás de 100, lo llaman digital

(23:27):
employees, es decir, de 100 empleados digitales que son
agentes que tiene, tienen su propio login, tienen sus propios
permisos. Un manager humano que supervisa
su trabajo. Pues revisan código, detectan
vulnerabilidades, aplican fixes también al código ellos mismos,
o sea, tienen agentes que se comportan como como humanos y
según ellos, pues que les están dando un valor muy directo al al

(23:50):
negocio. Habla también de Walmart, que
dice que ha que ha integrado agentes dentro de de la cadena
de diseño de de moda. YY bueno, pues lo que viene a
decir es que en una, en un, en un sector donde se por diseñar
una colección, puede llevar meses.
Hablaban de 6 meses. Para para hacerlo decían que
podían reducir hasta 18 semanas utilizando agentes que están

(24:12):
combinando. Bueno, pues las tendencias que
hay en las redes sociales, el inventario existente, el
histórico de patrones, pues todoeso lo combinan, se ahorran un
montón de tiempo YY al final a ellos también les está
impactando dentro del del negocio.
Y hablan también de de self force, que bueno, pues se está
apuntando al carro de alguna forma, diciendo que su
plataforma agent force, que es la que tienen para para los

(24:34):
agentes. Está creciendo a un ritmo 5
veces superior al del año anterior.
Vale, entonces bueno, pone varios ejemplos donde parece que
sí hay un impacto, pero claro, si vamos a ese a esa
polarización, a esas 2 versionesde las que estábamos hablando,
pues el el en concreto. Cuando he hablado antes de
informes, el MIT decía que el 70% de los agentes de los

(24:57):
pilotos agentes no han dado un retorno significativo.
Y yo leía. Y no sé si era quién say o o
quién leía hace poco de un 90, 95% que no estaban realmente
dando ese ese retorno. Y los encontramos ahora con lo
del Wall Street Journal. Habría que ver por qué, o sea,
cuáles son las condiciones que se tienen que dar para que los

(25:18):
agentes realmente funcionen o o no, porque si nos vamos a casos
en los que no funcionan. Y poniendo también nombres, me
encontraba por ahí ejemplos comoel de Goldman Sachs, que.
Intentó automatizar, pues algunas de de las tareas con
agentes, pero en su caso concreto, como los agentes, no
eran lo suficientemente deterministas.

(25:39):
Y esto es algo que venimos hablando también y que es que es
esperable, pues los resultados aveces no eran los que ellos
necesitaban, o los pasos no se ejecutaban en el orden correcto
o se saltaban algún paso todo. Todos lo hemos visto alguna vez
con cualquier consulta, cualquier prom que hemos hecho
en en chat GPT o en DMI o o o loque sea.
Ya llegó compliance y dijo. Hasta aquí hemos llegado.

(26:01):
Dejamos los agentes de lado. Si algún día aparece alguna
nueva tecnología de Google y quelo revoluciona como lo que hemos
hablado antes, pues quizá sea elmomento, pero ahora mismo no.
También había encontrado un casode General Motors, donde crearon
un programa que llamaban de coworker, donde la idea era que
los agentes fueran capaces de gestionar.

(26:22):
Pues lo típico, lo que no quieren los los los empleados.
Temas de gestión de documentos, inventario, procesos de
fabricación sencillos y lo mismono tenían la estabilidad en
producción y no, no salió adelante.
¿Y con SAP, por compararlo con salesforce o es algo parecido?
Han intentado meter a gente dentro de del ERPYY que ver de

(26:42):
las han segado, como se suele decir, no han tenido que que
dejar de lado. ¿Entonces, qué ha pasado?
Pues que en el caso de los que sí han ido bien, a lo mejor
tenían. En el caso, por ejemplo, del
Banco de Nueva York, ya llevan muchos años haciendo
automatizaciones lo que pasa y toda esa experiencia.
Ahora quizá ya sí que saben cómo.
¿Cómo implementarlo? En el caso de Walmart ya tienen

(27:04):
unas cadena, no me sale supply change, que está muy optimizada.
Los datos están muy bien gestionados, integrados,
unificados, tienen o sea, tienenmuchos temas, tienen mucha
estabilidad como para que aplicar la inteligencia
artificial seguramente sea más sencilla.
¿Y en el caso de Sellforce? Pues tenemos 111, sistema que
está muy, muy estructurado, también es está como bueno, pues

(27:28):
casi podemos decir que es un ecosistema bastante bueno para
poder meter agentes YY que no sesalgan de ahí entonces.
Como como os digo. Hay cosas que o o hay hay, hay
entornos, hay contextos que sí te permiten a lo mejor que esos
agentes tengan éxito y otros. Que que no.
Y hemos hablado de lo que veníais hablando hace hace un

(27:51):
rato. Hemos hablado de problemas de
memoria, de de, hemos hablado deproblemas de planificación,
hemos hablado de determinismo. Todo eso como no está resuelto,
pues a lo mejor en algunos casoste puede dar igual, pero en
otros, desde luego, no puedes automatizar tanto como se
esperaba que se pudiera automatizar.
Y sea como sea, también fijaos que hemos hablado un montón de

(28:13):
empresas grandes más que otra cosa.
¿Qué pasa con las medianas y conlas pequeñas?
¿Dónde están? Pues nosotros este año, por
ejemplo, si hemos hecho agentes para para empresas medianas,
pero la mayoría de lo que ves por ahí al menos que se menciona
y se hacen casos de éxito, pues son flujos, como decíamos, cosas
muy sencillitas con NHN o o casos que no se pueden ni
siquiera llegar a hablar de de agentes.

(28:35):
¿Así que no sé el resumen, viendo un poco el contexto,
pensáis que si ha sido el año delos agentes o que no?
¿O qué es lo que nos falta? Sistemas en.
Producción. No, y que.
Sean visibles deberían serlo, porque por el marco regulatorio,

(29:00):
si estamos teniendo días trabajando, sobre todo que
interactúen con los clientes, etcétera, deben identificarse
como tales. ¿Y al final, bueno, pues de lo
que se trata es de dar servicioso de ofrecer valor, no?
Yo creo que. Desde luego.
¿Voy a empezar por tu pregunta, ha sido el año de los agentes?

(29:24):
Bueno, eso es como una una afirmación muy grande.
Yo creo que no. Lo que sí que ha habido por
todos los casos que has comentado es presupuestos
específicamente dedicados a avanzar en este sentido.
Y ahí hemos escuchado. O sea, si nos llevamos el

(29:45):
concepto de agente a a a la sustitución de cosas utilizando
inteligencia artificial, sustitución de de de procesos de
negocio que antes tenían que hacer personas, pues ahí
tenemos. Bueno, recientemente tenemos
noticias que van saliendo, no degrandes olas de despidos en

(30:09):
sitios como o o de intenciones. Para sustituir a humanos por
máquinas y cosas por el estilo, no, pero que son cosas que no se
ven materializadas de una maneratan tangible.
¿O sea, son son casi discursos de de de feos que igual tienen
otro tipo de de interés, no? Amazon, por ejemplo, estaba

(30:33):
planteando sustituir claro, los números de Amazon.
Es que ya ya me baila en la cabeza, pero no sé si eran, es
que estoy dudando si eran. ¿60000 personas o 600000?
No lo sé, EH, 600. ¿A mí quizá es demasiado, pero
ya dudo, Eh? Pero fíjate por.
Ejemplo en la Casa de Amazon, que también se ha hablado por

(30:55):
ahí, que alguien decía fuentes internas que parte de lo que se
estaba planteando en Amazon, sobre todo lo que eran almacenes
y demás, es más el fruto de todala tecnología que han desplegado
en los últimos años. O sea, que hay un montón de
automatización y robotización que se ha ido metiendo en las
naves. Y que estaba en fase de llamarlo
pruebas o supervisión y que todavía cuentan con los humanos

(31:16):
y que ahora es el momento donde pues empiezan a ver que
realmente pueden algunos sistemas que son
automatizaciones más simples de lo que estamos hablando a día de
hoy, pero que pueden eficientar procesos, sumado a que
evidentemente, pues no ha habidounos crecimientos tan fuertes en
en la parte de e commerce como ellos esperaban post pandemia y
se suma un poquito todo. Yo creo que a veces también a

(31:38):
parte de. Que nos vamos un poco a la
pregunta, pero aparte de toda esta bruma es que se juntan
muchas cosas, no a la os daño a los agentes con con lo que tú
está diciendo lu no, que hay mucha noticia de que los agentes
van a echar mucha gente y hay noticias de despidos, pero
muchas veces estos despidos son por otros, por otros motivos,
por otras causas y van enmascarados con el con el auge
de la illa. ¿Entonces hay como yo creo que

(31:58):
son como 2 temas distintos que colisionan y genera una
sensación rara? Sí.
Totalmente, pero claro, es verdad que no es lo mismo.
Pero en realidad, si atendemos auna definición de agente un poco
más líquida, no como un sistema que es capaz de hacer el trabajo

(32:23):
que antes hacía una persona de manera más o menos autónoma,
cubrir una parte del proceso y tal, pues ahí también debajo del
paraguas habría cosas un poco menos sexy que que agentes super
inteligentes que. ¿Que tienen responsabilidad y
tal para estar robotizaciones? Pero bueno, quitando eso de la
ecuación cuando hablábamos del año de los agentes.

(32:47):
Claro, yo al. Menos me imaginaba que el este
concepto iba a estar, no, no tanto que que fuera a sustituir,
a que iban a echar a mucha gentepor sustituirles para la gente
ni nada por el estilo. No que eso.
Bueno, hay. ¿Quién le puede parecer una
idea? Atractiva por el tema de los

(33:07):
costes y tal, pero que yo lo queimaginaba es que los agentes
iban a estar más en el día a díade nuestro trabajo en la mayor
parte de los trabajos, al menos digitales, es decir, que tú ibas
a tener que interactuar con estos sistemas.
De una. Manera más normal para que a
final de año todos íbamos a ver como algo normal, oye, pues es

(33:30):
que esto se lo mando a la gente de no sé qué o esto ya lo hace
la gente de no sé cuántos. O o este otro agente me acaba de
enviar ya el briefing que ha hecho o o la prospección o lo
que sea no y se se van a estar encargando de tareas tediosas.
Yo no veo que pase esto. Sí que veo que aparte de estos

(33:50):
estos proyectos de los que tú has hablado, franky, pues que
los los players tipo OP n AI a ya través de HGPT empiezan a
poner tecnología para construir.Lo que ellos llaman agentes que
son automatizaciones no es como meterle HBT uno n 8 n para que

(34:11):
la gente tire para adelante, pero la gente no está usando
esto, es decir, hay que ser un todavía un poco friki, no para
meterse en el en el fregado. Y luego hay gente que tiene
mucho dinero, que es verdad que ha destinado presupuestos a
hacer este tipo de proyectos y luego está selfor que quiere
hacer, quiere ser el producto dereferencia para construir ese

(34:32):
tipo de sistemas y tal. Pero yo no veo que esté en el
día a día de la gente, es decir,no, no es un concepto que esté
encima de la mesa. Como algo está, está en todo el
mundo de la I a se sigue hablando del tema, tiene
potencial, no sé qué, y luego tiene sus problemas de de que
hasta hasta dónde le vas a delegar responsabilidad.

(34:54):
¿Yo he oído proyectos muy locos,Eh?
Esto que me ha hecho. Gracia cuando he dicho tú que
había un equipo de agentes que luego tenían un manager humano.
Sí, sí me ha gustado. El modelo all and one on one.
Claro. Cómo, cómo, cómo orquestas tú
eso dentro de lo que es, porque luego luego está el tema de

(35:14):
enganchar eso dentro de la operativa de una compañía y que
eso funcione, no para cosas muy simples que se pueden
automatizar. Bueno, pues se ha automatizado
siempre. Ahora se puede automatizar más
porque tenemos sistemas más potentes.
¿Pero claro, sustituir a personas es una cosa muy
hardcore, Eh? A no ser que el trabajo que
estuvieran haciendo esas personas pues fuera de muy bajo

(35:36):
valor. Entonces yo lo que no veo es
eso. No veo que esté ahí un no sea un
concepto que más allá de que lo hablemos nosotros y lo hable la
gente que está muy al día de la inteligencia artificial, no veo
que esté sobre la mesa. Por lo tanto, para mí eso
determina que no ha sido el año de los agentes.

(35:56):
Es que los los agentes que. ¿Que se desarrollan?
En el marco de de las empresas para para hacer esas
automatizaciones que estás comentando.
En general son agentes como más más verticales, no con tareas
mucho más específicas. De hecho, los ejemplos que hemos
puesto, los que han ido bien, han sido siempre con tareas muy
específicas que había que que resolver.

(36:17):
Cuando te pones a hablar de las herramientas que nos están
proporcionando open y o o también la tienes a través de
Copilot o cosas así, esos agentes que llaman ellos al
final son estamos hablando agentes generalistas donde ya no
entra. ¿Ni siquiera la decisión de como
empresa de qué es lo que hay quehacer y un equipo de desarrollo
que lo haga y todo eso, sino quecada uno tiene que ser capaz de

(36:38):
de crear esos agentes te están dando esas herramientas para que
en cada apartamento o cada persona se los pueda crear?
Claro, no vas a tirar piedras contra tu tejado YY joderte tu
propio puesto de trabajo. Entonces si haces uno de esos va
a ser para que te ayude con algoque te quite tiempo y ponerte a
ver Netflix si queremos verlo así o poder cubrir más de lo que
estás haciendo. Pero no.
No, no te vas tampoco a a meter un un tiro en el pie, entonces

(37:03):
claro, hay que ver, hay que ver la utilidad de lo que estamos
haciendo. Realmente el tema es, estamos
haciendo el DELIVERY de los agentes de la manera adecuada,
estamos dando las herramientas adecuadas para que para que lo
hagamos o o realmente todo esto que se está construyendo no va a
ir a ningún sitio. ¿Estamos haciendo productos muy
grandes que luego se van a quedar ahí en el en el olvido,
porque cuánta gente utiliza? Ni siquiera ya los GPTS que en

(37:25):
su momento cuando salieron eran eran la bomba.
¿Vosotros veis que en general seutilizan los GPT?
¿No, no, no, a escala, no? No, no es es.
Mínimo pasa con todo todo lo quetodo lo que esté por encima del
producto básico, no es decir, lainterfaz conversacional de chat,

(37:46):
GPT o gemina y o lo que tengas. Sí que se usa.
Intensamente, eso es. No, eso eso fue un.
Producto como que es tan. Intuitivo y tan sencillo y te
ofrece tanto valor con poco que tú pongas que a nivel de
experiencia de usuario, pues ha conseguido calar de una forma
increíble. No YYY tener usos que no

(38:09):
anticipábamos, no como esto de de los que hacen la generación z
de generación alfa de estas tecnologías, no, pero en el
ámbito laboral, eso sí que lo usa todo el.
Mundo vamos, pero. Por ejemplo, mucha GPT que te
ofrece mucho más. ¿Habéis hablado de GPTS

(38:29):
proyectos? Pero no solo la propia
configuración de personalización, el uso
inteligente de la memoria, las automatizaciones.
Incluso cosas que que son fáciles de usar a través del
modo del modo conversacional, como como el deep research o el

(38:49):
Study and learn. O sea, todo este tipo o el
canvas, no todo este tipo de funcionalidades que son
superpotentes y que vienen building los usa un porcentaje
ínfimo de la gente. Entonces.
Claro, pensar que si la adopciónde esto no está teniendo éxito,
bueno, no está teniendo éxito. Entre comillas sí que lo usa

(39:10):
gente, pero que digamos que no está en el día a día de todo el
mundo. Llevar esto un paso más allá y
pretender que la gente. Se meta en esto y vaya a
abrazarlo. El valor tendría que ser tan
grande y la fricción tan pequeñaque es no, no hay una forma
fácil de conseguirlo. ¿Quién, quién se relaciona con
este tipo de sistemas? ¿Los que son más tech, a los que

(39:34):
ya de por de por defecto les cuesta menos?
Pues porque claro, hay hay una promesa, no de que sí.
Sí, tú te puedes convertir, te puedes construir un sistema.
Con estas herramientas, no de construcción de agentes y tal,
te puedes construir un sistema sin programar, solo a través de
Proms Conversacional Patatín, Patatán, sí, claro, pero hacer

(39:57):
que eso funcione correctamente también requiere de una
sistematización de de un procesomás o menos serio.
Si no haces un juguetito que no te puedes fiar, no, entonces yo
creo que ahí falta esfuerzo en UX, básicamente porque lo están
metiendo todo por el mismo Canuto.
¿O sea, yo ahora mismo es que loestoy abriendo, no?
Tengo aquí echar GPT abierto YY le das al más, no el el más que

(40:22):
hay al lado de tal y te ofrece una serie de cosas aparte de
adjuntar archivos. ¿Y todo esto?
Pues una serie de modos, no de de de funcionamiento.
El canvas no sé por qué hay uno que es busca en Internet, porque
eso ya lo hace por defecto. Supongo que no, no lo he usado
mucho, Eh, pero eso es, me parece ya antiguo, el deep

(40:44):
research, el modo agente. La.
Gente no usa. ¿Esto y Fíjate que está fácil,
Eh? Está fácil lo.
De Studies Land, por ejemplo, Hacéis esta funcionalidad, no de
que sirve para profundizar en untema que lo mete en un modo en
el que pues tú haces las mismas preguntas, pero él intenta que
tú entiendas los conceptos y tal.

(41:05):
Esto lo hablo con esto, lo enseñé a mis hijos, por eso a a
usarlo no para estudiar y tal. ¿Y esto yo lo hablo con la
gente, está ahí, Eh? Nadie sabe que existe.
Entonces, claro. ¿Si si poniéndolo tan a huevo no
se usa tú, imagínate el modo agente ya locuron es hay hay un

(41:26):
problema de adopción? Claro, yo por por.
Ver otra perspectiva, o sea, al final de todo esto, yo creo que
hay un un tema semántico que es qué consideramos que es un
agente. Y también lo que hablamos antes.
No ha habido al final mucha promesa y mucha mezcla de
conceptos y yo creo que la pues bueno, que que no.
Todo el mundo tiene la misma visión de lo que pasa un agente.

(41:48):
Yo lo que sí que creo que ha sido el año en la que la
abstracción de los agentes se empieza un poco materializar,
como como una forma práctica y útil de llevar las cosas a
producción. En el fondo ha habido muchos
proyectos con con I a generativaque no acaba de cuajar.
Parece que algunos con con este enfoque los agentes empiezan a
funcionar. Y quizás yo lo que veo es que

(42:11):
quizás la la la historia es que los agentes permiten una
abstracción bastante más similara la de un humano.
Y como decíais antes, a lo mejorpara tareas un poco acotadas,
llamadas sencillas o o con un scope reducido, sí que permiten
sustituir parte de lo que hace un humano y sobre todo, meterse
en los flujos de trabajo de un humano.
Es decir, pueden interactuar en un slack, pueden recibir una
petición y dar una respuesta. Y sobre todo, tiene que haber

(42:33):
siempre un human in the look, nocomo lo hemos hablado muchas
veces, no, eso al final están muy montados para que haya una
una supervisión y esto te permite, oye, pues que un agente
pues me monte imágenes en un ecommerce, el el otro día
hablando con nuestro amigo faresfranky de la Casa de las
carcasas, pero ellos tienen montado de un y es un, o sea, no
es un un agente, en su caso, no más un workflow.
Pero de a partir de los diseños de una carcasa generan las fotos

(42:57):
del producto. On uso y demás, pero hay un
proceso de revisión. Entonces esta abstracción de
usar un un agente que va haciendo las cosas y las va
dejando en un sitio o interactúacon uno humano, es lo que yo
creo que permite que esa conexión con el human in the
loop y sobre todo con la integración de otros flujos.
Entonces, aunque este año no haya sido el año de los agentes
en adopción, muy seguramente seguir lo que nos ha dado

(43:19):
pistas. ¿De por dónde parece que va a
avanzar el desarrollo e integración de todo esto a gran
escala en las compañías a futuro?
¿Porque es un reto, no? ¿Cómo?
Cómo integro esto en mi operativa, donde pues hay otros
sistemas, hay otras personas, noes fácil, o sea, un un humano,
la ventaja que tiene es que se mete fácilmente en cualquier
lado, pero estos sistemas no tanto.

(43:42):
De fondo. Tenemos el problema que tenemos
siempre que vamos a seguir teniendo, que es el de.
El de la evolución de la culturaen las empresas, la adopción y
todo lo que tiene que ver precisamente con con los
humanos. Estamos, seguimos pretendiendo
el que salga una nueva tecnología y en un año la Haya
adoptado todo el mundo YY forme parte de los procesos.
Si sacamos partido y hay casos de uso y hay arroz y hay éxito y

(44:04):
tal cuando por por naturaleza nos tiene que costar, entonces
quizá. Quizá el tema es que tengamos
que ser un poquito menos ambiciosos a la hora de definir
las cosas. No podríamos decir es la no sé,
la década de los agentes, pues seguramente se va a tardar menos
de 10 años en que en que sean algo algo de verdad no, pero en
un año es es imposible, pero bueno, como hay que como a todos

(44:27):
nos gusta vender y hacer clickbaits, pues se utilizan
estas estos términos. Pero.
Hemos hemos sacado varias cosas que yo creo que son clave, no la
adopción, la integración, la usabilidad.
Yo creo que son problemas que enen tanto cuanto.

(44:48):
Esto es una tecnología que es prometedora y que pensamos que
puede aportar mucho valor, pues se Irán resolviendo YY yo estoy
esperando todavía que llegue un un player con un producto.
¿Para desarrollar a gentes que se salga un poco de la caja, no
de de lo que se entiende como lonormal y lo natural y tal porque

(45:11):
hay soluciones más más o menos tecnológicas, pero que todas se
basan un poco en lo mismo, no? Y no se diferencian mucho de una
plataforma de automatización quepuede hacer llamadas a a G PT.
Entonces yo creo que que se puede.
Se puede ofrecer mucho más y llegar a alguien que se se va a

(45:36):
romper la la baraja, o sea seguro, porque esto tiene tiene
fuerza, no como concepto y la capacidad está y tenemos que
encontrar la manera de reconciliarla con nosotros, los
humanos, que siempre somos el impedimento para todo.
Estorbo hay que quitarnos en medio ya, así que nada.

(45:58):
¿Podemos decir que 2026 en el año de los agentes no?
¿Bueno, vamos a vamos a alargar un poco para para 2030 hoy de
todo el mundo? Sí, en 2030 sí ya ya ya basará.
Tranquilos, muy bien. Vamos a pasar otra noticia que
que yo llevo más de un programa queriendo hablar de ella y la

(46:19):
vuelvo a traer porque además ha habido novedades, que es una
cosa que hemos. Hemos tratado en el podcast
alguna vez por cosillas que han ido pasando siempre por cosas
malas, no por por litigio, denuncias, demandas que no se da
diferencia. Pero bueno, que la hay entre los

(46:43):
productos de I a Generativa parahacer música y las discográficas
o los grandes distribuidoras discográficas.
¿Sigue usándose este nombre discográfica?
Los grandes distribuidores de o gestores de los derechos de la
música, no en general. ¿Y en este caso, pues una una

(47:08):
empresa con un producto para hacer música que se llama audio,
pues fue demandada, que creo quelo comentamos aquí por la
Universal UMG vale por violar derechos de autor?
¿Pues ya sabéis cómo es esto, no?
¿Es que están usando nuestras las canciones de Bad Bunny en el
data SET todo este rollo, pues curiosamente este esto se ha

(47:33):
convertido y todo es una una sorpresa para mí agradable, EH?
Se ha convertido este este litigio se ha convertido en una
colaboración. Vale.
YU dio va a lanzar una plataforma de pago.
Que permita generar y personalizar música usando las

(47:55):
grabaciones de artistas de universal, o sea, con licencia
totalmente totalmente lícita, digamos no, eso es una
redundancia con licencia y ya está.
¿Vale? Entonces me me parece curioso
que este acuerdo de lanzar este este, este esfuerzo conjunto,

(48:17):
salga como resolución de el litigio que tenía.
No, no es, no es tanto, te pido 1000 millones de indemnización y
tal, sino, oye, pues hacemos algo juntos.
No es de una forma bonita de de resolver las cosas, pero bueno,
sobre todo, pues que se ha encontrado un camino que

(48:39):
reconcilia estos 2 mundos. Esto no siempre pasa, en muchos
casos uno de los 2 termina destruido.
¿Bueno, y con la música? ¿Ha pasado, no?
Acordémonos de Napster, por ejemplo.
No, yo no vamos, no, no era muy prometedor lo que ocurría dentro

(49:04):
de esta guerra. Bueno, pues al final, pues lo
que van a hacer en esta plataforma donde a ver, no va a
ser tan fácil como yo. Tengo todo el catálogo de
universal y puedo hacer con él lo que quiera, sino que, bueno,
los artistas también van a tenerque autorizar.
Que se use su música recibirán los artistas pagos porque claro,
la plataforma va a ser de pago porque se haya usado su música

(49:27):
para generar música nueva. Hay que ver ahora cómo respiran
los artistas con todo esto, porque sabéis que hay en el
mundo del arte. Hay una una resistencia grande a
todo lo que tenga que ver con inteligencia artificial.
No digo que sea todo el mundo nique sean.
Idas de olla a los argumentos que tienen, pero sí que hay sí

(49:50):
que se está plantando batalla. Vale, entonces, bueno, todo esto
habrá que ver cómo lo cómo se cómo se resuelve.
Pero curiosamente esta misma semana he conocido que aparece

(50:12):
un nuevo jugador que es. Play vision vale que va a contar
con es una startup también, no que va a contar con licencias de
Sony, the universal y the Warner.
Vale para. Hacer para entrenar modelos
generativos no play vision bueno, a a diferencia un poco de

(50:37):
cómo funcionan los uno udio y tal, pues ofrece un modelo
distinto porque no es tanto. Para generar las canciones,
porque no es tanto from bast, sino que hace lo que llaman
active listening, no que vas modificando grabaciones
existentes en tiempo real. Es otro tipo de de experiencia
de usuario. A mí me parece refrescante.

(50:57):
Esto está bien, pero bueno que más allá de lo que es el
producto, pues esta gente ha conseguido las licencias de
todos los grandes, lo cual es uncambio total en el.
¿En el escenario con respecto a los derechos de autor YY vamos

(51:18):
esto esta nueva empresa, vamos, no son cualquiera, EH?
Aquí hay play, hay gente de que son x digmind, ex Spotify,
también gente de Sony. Os han juntado peña muy top y yo
creo que esta gente pues lo que quiere es revolucionar.
¿Lo que es el el mercado del streaming de música y de la

(51:42):
creación para para autores más caseros no?
Pero bueno, veremos hasta dónde llegan.
Yo creo que al final lo natural será que este tipo de
tecnologías que ahora se ponen en manos como de de usuarios
finales que no son músicos con con estas adaptaciones, también
terminen llegando a los músicos y llegará un momento en el que

(52:03):
la música se hará de otra manera.
Es decir, habrá personas dándoleel sentido artístico.
Pero pero seguramente muy apoyados en inteligencia
artificial. Pero ahora ya tienes.
Licencia, así que bueno, esto esel este es el cambio importante
también. Hace unos días uno he llegado a
acuerdo con Warner con algo parecido a a audio con

(52:25):
universal. O sea, me parece que que todo el
sector está en esa, en esa transición y en todos los casos
lo que está habiendo también es un cambio.
En el caso de audio, por ejemplo, ya no se pueden bajar
las canciones hasta que no se salga la nueva plataforma.
Y en el caso de Schuno, creo quevan a requerir que que todos los
usuarios que descarguen canciones sean de pago, porque
al final lo que se plantea es unsupongo, un modelo de royalties.

(52:47):
Al final yo creo que aquí las las discográficas están como
como adaptándose, como hicieron con el modelo de streaming, que
que en su día el modelo streaming no lo veían, pero se
adaptaron y al final bueno, puesllegaron a los acuerdos para
trincar, centimillos o décimas de céntimos por cada descarga.
Pues esto va a ser algo parecidocada vez que alguien genere
música. Pues supongo que o bien porque

(53:09):
estaba utilizando el estilo de algún compositor que ellos
tienen, o bien porque he estado utilizando alguna cosa.
¿De alguna forma computarán, no?¿A quién se lo asignan?
Y habrá un revenue SHARE, lo queva a hacer que todas estas
plataformas sean de pago, que compartan los ingresos.
Bueno, y potencialmente pueden hacer crecer el mercado.
Así que pues al igual que el streaming en su día primero como

(53:30):
recortó los ingresos. Pero luego han expandido el
mercado porque todo el mundo ahora está escuchando música
todo el día versus antes que eramás más difícil.
No tenías que tener un CD, un reproductor de otro tipo y el
consumo no era tan grande. Esto va a ser algo parecido a
todo el mundo, pues los creadores de contenido en
Instagram crearán sus canciones,las subirán y repartirán
royalties, pues también es una transición del modelo.

(53:53):
Yo tengo que reconocer que a mí todo esto me pilla muy.
Muy a desmano no termino de entender hacia dónde podemos ir
con esto e incluso os diría que la utilidad YY os cuento cómo lo
veo en plan Pureta viejo, que no, que ya esto lo ves.
O sea, seguramente los jóvenes entenderán cómo funciona, pero
claro, para mí la música. Lo primero, para mí la música es

(54:15):
algo que se termino de crear en el año 2000.
¿Todo lo que ha surgido después del año 2000 prácticamente no me
interesa porque uno le interesa lo de la época que que ha
vivido, no? O sea, es verdad que vives
canciones de después, pero pero ya por por lo menos en mi caso
tengo un horizonte temporal. Además un tipo de música
bastante característica, pero parte de la gracia que tiene la
música es escucharla una y otra vez no y además muchas veces

(54:37):
asociarla a eventos o ir a un sitio y escucharlo con más
gente. Entonces leía cuando estábamos
preparando la la noticia, leía en un sitio que decían que es
uno. Ya ha generado un catálogo que
es equivalente a todo Spotify cada 2 semanas.
¿Al hablarnos de brutalidades, de qué sirve tener tantas
canciones? Escuché hace un par de meses que

(54:57):
se hubo un poco de revuelo con una una artista virtual que se
llamaba Shania Monet, que había lanzado algunas canciones que
tenían. Los textos eran de una poetisa
americana. Y ella había utilizado su uno
para hacer hacer las canciones. Unas canciones que para mí eran
como el mejor Airbnb de los años90.
Vale, canciones cojonudas, con una voz cojonuda también.
Y digo, bueno, pues esto, si al final haces una estrella que

(55:20):
vaya a tener mucho tirón y tal una especie de Rosalía, si lo
quieres ver así, no todo lo que lo que tenemos a día de hoy.
Bueno, pues al final. Entonces tenemos un límite del
número de de músicos, cantantes a los que podemos seguir.
Entonces el hecho de poder tenertanta música tanta a nuestra
disposición o generarla puede estar bien, pero claro, a mí
personalmente me me cuesta, me cuesta un un poquito verlo YY

(55:44):
luego está el tema de lo puedes incluso ligar yendo dando un
paso más a los conciertos. Parte de la gracia que tiene la
música para mí es poder ir a verun concierto aunque no vaya
demasiado, pero sí voy de vez encuando.
¿Sobre todo no voy mucho porque no vienen a España los que me
gustan, pero poder abrir un concierto a alguien que te gusta
no? Y si es con gente querida,
amigos, familiares, lo que sea, pues pues mucho mejor.

(56:04):
Entonces ya os digo, seguramenteme estoy perdiendo algo, pero no
termino de ver la, o sea, sí termino de ver la utilidad para
componer, crear canciones nuevaspara que haya artistas, no que
se beneficien de eso, pero para poder generar canciones a
tutipling, incluso aunque sean canciones muy buenas, no sé.
O sea, yo creo. Que hay hay, hay como casos de
uso distintos, no, por ejemplo pasa, yo lo veo mucho, el mundo

(56:25):
de la generación de contenidos no, que estoy muy metido.
¿Al final tú subes muchas cosas a a Instagram, TikTok y ahora tú
puedes elegir la música que que subes, que es una música
comercial, porque claro, hay creadores que a lo mejor quieren
crear algo distinto, no? O quieren tener su su enseña o
claro, ahora lo que hay es un montón de gente utilizando audio
que antes no lo usaban pero que ahora no pesa nadie porque suben

(56:46):
vídeos, porque hacen otro tipo de creaciones.
Que a lo mejor lo que no intentan es ser artistas o o o
artistas de la música, pero sí que quieren cosas que la
acompañen y tener un poco de creatividad o expresarse o o
alguna cosa. Yo creo que ahí es dónde surgen
esos nuevos casos de uso más allá de lo que has dicho tú, no
de que haya bueno, ya hay herramientas que no son estas,
pero que sí que ayudan en la creación con, con I a no, pues

(57:09):
que te crean vocales con con I acuando tú estás en un editor de.
¿De estos de de música electrónica, por ejemplo?
Pues tienes como Plugins que te permiten crear una vocal conía
que se adapta a tu canción. Entonces, por un lado vamos a
ver otra serie de herramientas que ayuden a popularicen a esa
creación. Y yo creo que estas, que son más
consumer, van a estar para esa gracieta de comparto en redes

(57:29):
sociales. He creado mi versión de Rosalía,
pero es más entenderlo como contenido que comparto en redes
sociales. Una parte más social que
realmente una parte de de de música como la entendemos a día
de hoy. Y en cuanto a lo que es la
asociación con eventos de la vida, no que tú lo mencionabas,
aquí hay un potencial. Esto ya se está haciendo de

(57:49):
personalización, que antes era imposible porque tuvo un grupo
de música o un artista. Un cantante no conoce Asus fans,
hace música uno a n no, o sea, yo cojo, saco esto y te gusta o
no o le gusta un volumen de gente o no, pero con esto tienes
un potencial de oye, pero yo tengo mi fiesta.

(58:11):
¿De cumpleaños YY me hacen mis amigos unas canciones para
partirnos ahí de risa, no, que es un caso absurdo, pero que que
ya está pasando esto YY la personalización, pues es
simplemente un caso de uso más, no?
Las redes sociales son otros. Al final tú llevas la capacidad

(58:35):
de producir este tipo de contenido a muchísima más gente.
Lo cual, además tiene el potencial.
Y aquí no, no hablo necesariamente de mercado, pero
que luego termina convirtiéndoseen algo seguramente rentable
para alguien de que aparezcan artistas que de de otra manera

(59:02):
jamás hubiesen aparecido. Eso ya lo hemos visto con la
democratización, digamos, de. De la distribución de la música
con Internet, no que que ha habido, o sea, se ha cambiado la
industria. Pero una de las.
Consecuencias fue que grupos o artistas o lo que fuera que

(59:22):
jamás hubiesen tenido entrada enuna discográfica al uso porque
eran muy conservadoras y había que pasar muchos filtros, había
que tener enchufes o lo que fuese llegasen al gran público y
hay casos bastante. ¿Bastante sonados, eh, de que
esto ha pasado? Yo creo que esto expande esa

(59:43):
capacidad muchísimo más, porque llega un momento que antes
tampoco había que ser músico. Vale para hacer una canción, o
sea, es una cosa más o menos accesible y con tecnología y
tal. Depende un poco el tipo de
música que hagas, pero es que ahora esto se expande a

(01:00:04):
muchísimo más, no, entonces. Yo creo que hay una oportunidad
de que la capacidad artística intrínseca que tiene una persona
y que se ve, digamos, taponada por primero su su capacidad
técnica y luego por los canales que te propone la industria
tradicional, pues ahora eso se alivia muchísimo y puede salir

(01:00:27):
lo que se tiene dentro. No es una un posible efecto
beneficioso ahora que haya más música que.
¿El catálogo se doble? Bueno, yo creo que la música que
teníamos antes tampoco éramos capaces de consumirlo.
De hecho, hay muchos grupos que no nadie los conoce porque hay
tanto ruido que y son buenos, noque es muy difícil, pero pero

(01:00:50):
que haya más música, pues al final por estadística también
hará que que que salgan más cosas interesantes.
Lo difícil estará en filtrar. Yo personalmente para mí el
principal uso que. O el principal beneficio.
Que le vería a esto que le veo aesto sería el poder tener

(01:01:11):
versiones de canciones, una canción que a mí me encante y
que te la puedan versionar un poco más más rápida, más lenta o
por otro por otro artista, cogery poner a a rapear juntos a
notelius VI allí con con tu Pack.
¿Ahora que que bueno, pues que no tenemos a ninguno de los 2,
pero hubiera sido algo algo brutal, no?
O o o versionar, aunque Tupac versionara una canción de de

(01:01:34):
snoop, yo que sé me lo me lo invento, por poner ejemplos de
de rap, ese tipo de cosas. A mí me molarían mucho y yo
recuerdo también en tiempos el el comprarme un montón de de
singles porque el single te traía la canción original, un un
tema original, pero luego te traía 3 o cuatro versiones
distintas donde ya le daban. Le daban rienda suelta y todo
eso, no esa cosa, esa esa parte me mola bastante.

(01:01:56):
Pero claro, cuanto más música, osea, cuanto más lo abran
personalmente, ya os digo yo me me agobio, me agobio mucho solo
de pensarlo. ¿No sabemos muy bien a dónde
vamos a llegar con esto, EH? Pero bueno, que el tema de que
ya se empiezan a alinear los planetas, que no haya una
confrontación, sino que haya un alineamiento, pues quiero decir
que seguramente estemos a las puertas del nuevo paradigma.

(01:02:20):
¿Cuál es el uso que vamos a hacer de ello y cómo se va a
beneficiar la gente? ¿Realmente no lo sabemos, hay
conjeturas sobre luego las personas sabemos, pero vamos
desde luego que ciacor tienen redes, esto va a ser un pepino,
EH? O sea para para la generación de
contenido es un pepino para todas.

(01:02:43):
Te meten en TikTok, que oyes las3 mismas musiquitas en todos los
reels. La de suspense, la de no sé qué,
la de tal, la que están fría y eso es una mierda.
Eso es mejorable. Vamos al final.
Lo que hacer todo esto pasa comocon la generación de imagen y
vídeo, es que va va a subir el nivel también, o sea, al final

(01:03:03):
pasamos de Jo Acordaros hace 5 o6 años.
No que no es no es tanto producir un vídeo medio de
centro es muy complicado. O sea, a día de hoy ya tanto
grabación ha mejorado como ya tienes cositas que le añaden
efecto super rápido. Vamos a llegar a un punto donde
cualquier persona pueda poder hacer casi una superproducción
para hace 15 años, pues la va a poder hacer con su móvil a golpe

(01:03:26):
de Click y elegir su música y todo.
Entonces eso dota muchas capacidades.
¿Hasta qué punto será útil? Pues dependiendo un poco de la
de la creatividad de la gente y del de lo que le puedan
exprimir, no, entonces habrá gente que haga maravillas y
luego pues habrá mucho chusquerillo, pues.
Como podamos usar nosotros, al menos yo.
¿Seguramente cuando haga algo sonará como el culo, pero bueno,

(01:03:47):
te será suficiente como para para lo que quieres hacer, no?
Que a lo mejor compartir algo con tus amigos o lo que sea
totalmente. Dado con la clave, o sea, al
final es la la el talento que pueda tener una persona, pero
que es que ahora esto le da superpoderes a una persona con
talento. ¿Esto da super, antes ya ya
pasaba esto, no? O sea no ahí John Carpenter.

(01:04:09):
Se hacía la música de sus películas, se hacía él los la
los créditos, escribía el guión,dirigía.
Tal no era como un artista multidisciplinar.
Sin este tipo de. ¿Herramientas, si él era capaz
de plasmar una serie cosas, por qué?
¿Porque era capaz de hacer música?
Pues porque tenía un sampler, unteclado tal sin eso.

(01:04:31):
¿Pero a lo mejor yo no soy músico, buf, imposible que yo lo
hubiera hecho, no? Pero pero ahora alguien que
tenga inquietud ahora también eso pues depone mucho, mucho,
mucha importancia. Pone muy de relieve la
importancia del toque humano en todo esto.

(01:04:54):
Vale, son herramientas YY veremos hacia donde nos llevan y
cuánto nos cobran. Si os parece, lo vamos a ir
dejando por aquí. ¿Yo creo que ya hemos hablado un
ratito de cosas interesantes y hay que dejar algo para el
próximo día, EH? Así porque sino no hay.
No se producen nuevas noticias de clara al próximo día.

(01:05:16):
Eso es. Así que nada.
Muchas gracias un día más por acompañarme.
Muchas gracias a nuestra audiencia, a los que hayáis
llegado hasta aquí y nos vemos en la próxima.
Un abrazo. A.
Vosotros a nuestros oyentes y hasta dentro de unos días,
adiós.
Advertise With Us

Popular Podcasts

Stuff You Should Know
Dateline NBC

Dateline NBC

Current and classic episodes, featuring compelling true-crime mysteries, powerful documentaries and in-depth investigations. Follow now to get the latest episodes of Dateline NBC completely free, or subscribe to Dateline Premium for ad-free listening and exclusive bonus content: DatelinePremium.com

The Burden

The Burden

The Burden is a documentary series that takes listeners into the hidden places where justice is done (and undone). It dives deep into the lives of heroes and villains. And it focuses a spotlight on those who triumph even when the odds are against them. Season 5 - The Burden: Death & Deceit in Alliance On April Fools Day 1999, 26-year-old Yvonne Layne was found murdered in her Alliance, Ohio home. David Thorne, her ex-boyfriend and father of one of her children, was instantly a suspect. Another young man admitted to the murder, and David breathed a sigh of relief, until the confessed murderer fingered David; “He paid me to do it.” David was sentenced to life without parole. Two decades later, Pulitzer winner and podcast host, Maggie Freleng (Bone Valley Season 3: Graves County, Wrongful Conviction, Suave) launched a “live” investigation into David's conviction alongside Jason Baldwin (himself wrongfully convicted as a member of the West Memphis Three). Maggie had come to believe that the entire investigation of David was botched by the tiny local police department, or worse, covered up the real killer. Was Maggie correct? Was David’s claim of innocence credible? In Death and Deceit in Alliance, Maggie recounts the case that launched her career, and ultimately, “broke” her.” The results will shock the listener and reduce Maggie to tears and self-doubt. This is not your typical wrongful conviction story. In fact, it turns the genre on its head. It asks the question: What if our champions are foolish? Season 4 - The Burden: Get the Money and Run “Trying to murder my father, this was the thing that put me on the path.” That’s Joe Loya and that path was bank robbery. Bank, bank, bank, bank, bank. In season 4 of The Burden: Get the Money and Run, we hear from Joe who was once the most prolific bank robber in Southern California, and beyond. He used disguises, body doubles, proxies. He leaped over counters, grabbed the money and ran. Even as the FBI was closing in. It was a showdown between a daring bank robber, and a patient FBI agent. Joe was no ordinary bank robber. He was bright, articulate, charismatic, and driven by a dark rage that he summoned up at will. In seven episodes, Joe tells all: the what, the how… and the why. Including why he tried to murder his father. Season 3 - The Burden: Avenger Miriam Lewin is one of Argentina’s leading journalists today. At 19 years old, she was kidnapped off the streets of Buenos Aires for her political activism and thrown into a concentration camp. Thousands of her fellow inmates were executed, tossed alive from a cargo plane into the ocean. Miriam, along with a handful of others, will survive the camp. Then as a journalist, she will wage a decades long campaign to bring her tormentors to justice. Avenger is about one woman’s triumphant battle against unbelievable odds to survive torture, claim justice for the crimes done against her and others like her, and change the future of her country. Season 2 - The Burden: Empire on Blood Empire on Blood is set in the Bronx, NY, in the early 90s, when two young drug dealers ruled an intersection known as “The Corner on Blood.” The boss, Calvin Buari, lived large. He and a protege swore they would build an empire on blood. Then the relationship frayed and the protege accused Calvin of a double homicide which he claimed he didn’t do. But did he? Award-winning journalist Steve Fishman spent seven years to answer that question. This is the story of one man’s last chance to overturn his life sentence. He may prevail, but someone’s gotta pay. The Burden: Empire on Blood is the director’s cut of the true crime classic which reached #1 on the charts when it was first released half a dozen years ago. Season 1 - The Burden In the 1990s, Detective Louis N. Scarcella was legendary. In a city overrun by violent crime, he cracked the toughest cases and put away the worst criminals. “The Hulk” was his nickname. Then the story changed. Scarcella ran into a group of convicted murderers who all say they are innocent. They turned themselves into jailhouse-lawyers and in prison founded a lway firm. When they realized Scarcella helped put many of them away, they set their sights on taking him down. And with the help of a NY Times reporter they have a chance. For years, Scarcella insisted he did nothing wrong. But that’s all he’d say. Until we tracked Scarcella to a sauna in a Russian bathhouse, where he started to talk..and talk and talk. “The guilty have gone free,” he whispered. And then agreed to take us into the belly of the beast. Welcome to The Burden.

Music, radio and podcasts, all free. Listen online or download the iHeart App.

Connect

© 2026 iHeartMedia, Inc.