All Episodes

February 21, 2025 37 mins

En este episodio de tensor les llevaremos a un recorrido por el foro económico mundial que se celebró en Davos, Suiza, iniciando el 2025, para escuchar algunas de las ideas más relevantes en torno a la inteligencia artificial y también las dudas que están aquejando a los expertos internacionales. Y por otro lado conoceremos el nuevo modelo de IA chino que ha irrumpido en el mundo con una estrategia que deja claro que no hay supremacía en la tecnología y que estamos iniciando una nueva revolución industrial.

Somos parte de la cruzada de los algoritmos, ¿te sumas?

🎙️ | #InteligenciaArtificial | #MéxicoDigital #CruzadaDeLosAlgoritmos| #foroeconomicomundial #YoshuaBengio

· Recursos de voces ia: Endless.io, Masscer ia lab, Hailuo.

· Portada: Masscer ia lab – Modelo: Flux 1.0 pro

📅 Producción y voces: Guillermo Jiménez Palacios y Francisco Gallo Razo. Divulgadores de I.A.

Con la participación especial de: Charly Chacón

🎧 Masscer Media y Masscer I.A Lab.™

Nos escuchamos en el futuro. 🌐🤖

Mark as Played
Transcript

Episode Transcript

Available transcripts are automatically generated. Complete accuracy is not guaranteed.
(00:00):
Tensor podcast episodio número once.

(00:08):
Mientras en occidente los expertos se lanzan preguntas, dudas y hechizos en el
Foro Económico Mundial acerca del futuro de la IA, el bloque electrónico de China
irrumpen con un modelo y una estrategia que marcan el inicio de una nueva
revolución industrial.

(00:38):
Él es el periodista estadounidense Nicholas Thompson, editor de revistas como
la legendaria The Atlantic o Wired. Publica en el New Yorker y en el CBS News,
regularmente modera debates públicos y hoy no es la excepción. Estamos en el
cuarto día del Foro Económico Mundial, es el 23 de enero y le han asignado la

(01:01):
tarea de poner a debate la AGI o Inteligencia Artificial General y su
inminente llegada.
Entre los asistentes ya se han puesto de acuerdo en no estar de acuerdo, algunos
creen que la AGI es la capacidad de las máquinas para realizar cualquier

(01:24):
tarea intelectual que un humano pueda hacer. Pero mientras la mitad de los
panelistas aceptan esta definición, la otra mitad no, sin embargo todos tienen
una idea general de lo que significa así que no se detendrán en definiciones.
Nicholas es un experto en tecnología, en sus manos estuvo la transición de The

(01:47):
New Yorker al formato digital, así que conoce el tema un tanto por haber sido
testigo y otro tanto por ser parte de su evolución.
Junto a él se encuentra un increíble grupo de panelistas.
Jonathan Ross, founder, CEO, de GROCK. Primero está Jonathan Rose, matemático,

(02:10):
neoyorquino y punk, director ejecutivo y fundador de GROCK.
GROCK es el lenguaje que permite correr a la arquitectura informática
Tensor Streaming Processor, capaz de lograr una rápida interferencia de
inteligencia artificial en la nube y en centros de cómputo locales. Por ejemplo,
en GROCK corren la mayoría de las IA conocidas popularmente.

(02:33):
Nicholas dice que Jonathan tiene tantos títulos que cada vez que lo presenta
usa uno diferente. En esta ocasión lo llamaré el jefe de Deep Learning.
Después está Andrew Yang Tang Engie, profesor inglés, director del laboratorio

(02:55):
de inteligencia artificial en Stanford. Mejor conocido por haber sido el cofundador
de Coursera y constructor de robots y redes neuronales.
Está Joshua Benjio, profesor de la Universidad de Montreal, consultor de Naciones Unidas

(03:16):
y uno de los fundadores de la IA tal como la conocemos hoy en día.
A su lado está Yejin Choi, profesora de Stanford y directora de proyectos
en NVIDIA. La revista Time la considera una de las 100 personas más influyentes
en inteligencia artificial. Su interés radica en construir sistemas de IA

(03:40):
que comprendan normas sociales y valores morales.
Y finalmente presenta al ingeniero Thomas Wolf, cofundador de Hugging Face Hub,
la plataforma que aloja, según sus propias palabras, más de 120 mil modelos
de inteligencia artificial y que es gratis. Cualquiera puede usarla.

(04:04):
El gran Thomas, francés, corpulento, una especie de lutero futurista
en cuanto al código abierto se refiere.
El moderador Nicholas Thompson apura la conversación.

(04:28):
Nicholas no puede contener la emoción de estar reunido con todos esos personajes
sin que los conoce a cada uno por separado, pero tenerlos juntos y debatir
con ellos es algo que no tiene comparación para un periodista como él.

(04:49):
Nicholas toma la palabra y comienza a plantear el debate. Dice que hablarán
sobre la inteligencia de las máquinas versus la inteligencia humana
y que discutirán acerca de cómo estamos avanzando hacia la AGI y de cómo
podría ser un mundo después de la inteligencia artificial general.

(05:11):
Y arranca con la primera pregunta al panel. Andrew se voltea y le dice,
voy a empezar contigo.
Andrew, hemos visto que la inteligencia artificial mejora, mejora y sigue mejorando.
Pero ¿existe un límite en el progreso de la IA?

(05:33):
El profesor Andrew ya tiene la respuesta. Le han hecho esta pregunta muchas veces
en los cursos que ofrece.
Dice que él espera que algún día alcancemos la AGI e incluso la superinteligencia
artificial, tal vez dentro de nuestras vidas, tal vez en las próximas décadas

(05:54):
o incluso en cientos de años. Veremos.
¿Cuánto tiempo toma? Y es que debemos entender que la IA obedecerá a las leyes
de la física, por lo que es obvio que habrán algunas limitaciones físicas.
Sin embargo, como dice el profesor Andrew, el techo de cuán inteligentes

(06:18):
pueden volverse estos sistemas y por lo tanto, ¿cuánto podremos dirigirlos
para que trabajen para nosotros en este mundo?
Por lo tanto, ¿cuánto podremos dirigirlos para que trabajen para nosotros
será extremadamente alto?

(06:40):
De repente el profesor Joshua Benjo interrumpe diciendo, bueno, aquí tenemos
mi primer desacuerdo y explica.

(07:02):
En cuanto al techo de la inteligencia, la verdad es que no lo sabemos.
El cerebro humano es una máquina, una máquina biológica, y si observamos
las tareas específicas vemos que los humanos están lejos de ser los mejores
en todo. Ya tenemos máquinas que nos superan en ciertas tareas.

(07:29):
El canadiense, ganador del premio Turing, señala dos puntos clave.
Uno, incluso si las máquinas solo alcanzan el nivel de inteligencia humana,
solo operan digitalmente, no biológicamente. Eso significa que pueden aprender
de una cantidad de datos mucho mayor. Por ejemplo, chat GPT, aunque
cognitivamente inferior a nosotros en algunos aspectos, bien conoce 200 idiomas

(07:55):
y tiene más conocimientos que cualquier ser humano individualmente.
Y dos, las máquinas pueden comunicarse mucho más rápido entre sí de lo que
los humanos pueden hacerlo entre ellos. Eso por sí solo crea nuevas capacidades
que los humanos no poseen, incluso si solo logramos una IA con inteligencia

(08:16):
a nivel humano.
La conversación se empieza a poner mejor cuando Nicolas, el presentador,
pregunta cuáles son entonces las diferencias clave entre cómo funciona el
cerebro humano y cómo aprenden las máquinas.

(08:46):
Es cuando la profesora Choi toma la palabra.
Imaginemos criar a un niño dándole acceso a Internet y obligándolo a leer
las New York Times desde el momento en que nace. La profesora Choi afirma
que entonces ese niño, uno, no podría hacer ninguna pregunta, dos, no tendría

(09:12):
control sobre el orden en que lee la información y tres, tendría que leer
todo de manera secuencial, sin poder interactuar con el aprendizaje.
Esto da como resultado una inteligencia que es fundamentalmente diferente
de la inteligencia humana.

(09:33):
La profesora plantea que si bien la IA es extremadamente buena en algunas de
las tareas más difíciles, como aprobar el examen de abogacía o resolver
problemas matemáticos de nivel olímpico, al mismo tiempo comete errores tontos
de maneras que no sorprenden.

(09:58):
Actualmente, dice la profesora Choi, la inteligencia de la IA está limitada
por lo que está disponible en Internet, que en última instancia es sólo un
reflejo de la inteligencia humana. También dice que la IA está limitada
por lo que los programadores pueden verificar, como comprobar si las
soluciones de algunos problemas son correctas. Lo que aún no sabemos,

(10:20):
según la profesora Choi, es cómo ir más allá de eso.
Y no creo que nuestros métodos actuales nos lleven ahí.
Puede haber múltiples caminos hacia la inteligencia, incluso con nuestro
enfoque actual de fuerza bruta que es ineficiente, podemos llegar muy, muy lejos.
Lo que no sabemos.

(10:41):
Dice una científica que dedica su trabajo a integrar conceptos de valores
a las máquinas. Es si la IA podrá superar en todas las tareas a la mejor
inteligencia humana.

(11:03):
Me tomo un respiro. ¿Podrán ustedes imaginar las jornadas de debates,
ponencias, postulados, predicciones, advertencias y propuestas que se van
creando desde hace poco más de 50 años en el famoso foro económico mundial?
En Davos, en los Alpes suizos. Es enero de 2025. Más de 1600 líderes

(11:28):
empresariales se han reunido aquí. Entre ellos, más de 900 son los principales
directores ejecutivos de todo el mundo. Davos tiene algo especial, una combinación
de poder, dinero y tecnología que lo envuelve en un aura casi mágica, pero a la
vez sigue siendo un espacio alejado de una tercera parte del planeta donde

(11:51):
millones de personas aún carecen de acceso a la tecnología que aquí se
discute. Decido salir del auditorio. Mientras camino por los pasillos del
Centro de Convenciones, noto a lo lejos a una reportera que parece estar al

(12:16):
acecho. Sí, es Chandra Ranganantham Srikanth, periodista de tecnología y
economía. Escribe para The Times, Itnow, CNN y hay otros medios. Hoy está aquí
como directora del Money Control, la principal plataforma de noticias

(12:37):
financieras de la India. Su camarógrafo se ve listo. Ella sostiene el micrófono
cerca de sus labios, esperando. ¿A quién esperará?
De pronto se escuchan los aplausos dentro del auditorio. El panel ha concluido.

(13:04):
Comienzan a salir los asistentes, ejecutivos, diplomáticos, primeros
ministros, presidentes. Pero Chandra no los toma en cuenta. Ella está buscando
a alguien más. De repente se mueve ya más rápido y su camarógrafo la sigue de
cerca. Y entonces lo veo. Es Joshua Benjo. Impresionante. Y lo tienen

(13:34):
exclusiva.

(13:57):
Mientras la reportera está haciendole preguntas, el profesor Benjo se
mantiene con una expresión seria, casi estoica, científico al fin. Su seño
fruncido denota concentración.

(14:18):
Chandra le pregunta sobre el informe reciente publicado esta mañana donde se
menciona que Open Eye ya tiene listos súper agentes capaces de realizar
trabajos a nivel doctoral. Esto está ocurriendo pocos días de que Mark
Zuckerberg declarara en una entrevista que Meta podría prescindir de
ingenieros humanos y depender únicamente de ingenieros de IA.

(14:41):
Chandra no pierde el tiempo y va directo al punto. Profesor Benjo le pregunta.
¿Cree usted que el avance de la inteligencia artificial está yendo demasiado
rápido sin que hayamos establecido mecanismos de control para manejar el
desplazamiento de los seres humanos por la IA?

(15:05):
A lo que el profesor contesta.
Sin duda hay muchas cosas que aún no comprendemos sobre estos sistemas. En
particular, no sabemos cómo asegurarnos de que se comporten de acuerdo con las
normas e instrucciones que les damos. Tampoco hemos planificado cómo manejar

(15:26):
las posibles disrupciones en el mercado laboral si estos avances continúan en
los próximos años. Las transiciones tecnológicas toman tiempo y las redes de
seguridad social, tanto nacionales como globales, pueden no ser suficientes
para hacer frente a estos cambios.
Así que la reportera continúa con otra pregunta clave.

(15:50):
Profesor, ¿tiene usted alguna predicción acerca de lo que se avecina en los
siguientes años?
Y el profesor contesta.
Para aquellos que creen que el progreso ha llegado a su límite, diría que
podría ser que el avance de la inteligencia artificial se ha ido a punto de

(16:14):
ser un error. No hemos visto un estancamiento en las mejoras, al contrario,
han surgido nuevas técnicas que permiten aumentar los recursos computacionales
en tiempo de ejecución en lugar de simplemente hacer más grande la red
neuronal y entrenarla por más tiempo.
El profesor Benio no es pesimista.

(16:37):
Es como él mismo se describe, un agnóstico tecnológico.
Ni él ni muchos de sus colegas saben con certeza cómo se desarrollará todo
esto. ¿Podría resultar bien si encontramos soluciones a tiempo?
¿O podría no hacerlo?
Mientras lo escucho responder, me pregunto.

(17:02):
¿Y ahora cómo salimos de Davos?
¿Pero quién es Joshua Benio?
Profesor de la Universidad de Montreal, ganador del premio Turing y el premio
Nobel, miembro de la Royal Society de Londres y Canadá, caballero de la legión
de honor de Francia, oficial de la Orden de Canadá, asesor científico de la ONU en

(17:27):
Interés, profesor de la Universidad de Montreal, ganador del premio Turing y el premio Nobel,
ganador de la Universidad de Londres y Canadá, caballero de la Universidad de
Londres y Canadá, asesor científico de la ONU en Inteligencia Artificial, amigo de
Jeffrey Hinton y Jean LeCun, jefe del equipo de ajedrez, líder del informe
científico internacional sobre la seguridad de la IA avanzada.

(17:52):
Puedes consultar el informe completo en nuestro blog,
www.global.org.

(18:40):
¡Dipsic!
Estoy seguro de que esta semana no has parado de escuchar la palabra Dipsic.
La empresa china de Inteligencia Artificial Dipsic.
¡Ah! Hay un nuevo nombre a retener en el mundo de la tech. Dipsic.
El modelo chino de Inteligencia Artificial Dipsic.
Dipsic, app gratuita chinesa.

(19:01):
Dipsic es la alternativa china a ser repitida.
Un chatbot de Inteligencia Artificial de la empresa china Dipsic.
Chatbot lanzado por la empresa china Dipsic.
Todo el mundo está hablando de Dipsic.
¡Dipsic! ¡Madre mía! ¡Mamma mía! ¿De dónde ha salido Dipsic?
¿Vas a ver juntos si Dipsic cumple tanto como promete?

(19:23):
Esta herramienta se llama Dipsic.
Esto va a romper la mente de Dipsic, con el algoritmo de modelos y la encuesta de entrenamiento
de la empresa china de Inteligencia Artificial.
¿Puedes investir en Dipsic desde India?
Vamos a hablar de Dipsic porque es una idea de la mente.
El lanzamiento de la AI de la empresa china de Dipsic.
La triga es Dipsic.

(19:47):
Después de Dipsic, la media social indiana tiene solo una pregunta.
Si China puede, ¿por qué no India?
Dipsic está extravolgiendo el mundo, y no solo desde un punto de vista tecnológico.
El presidente de la U.S. Trump ha dicho que una nueva chat de AI de la empresa china Dipsic
es un llamado de despertamiento para la industria técnica de América.

(20:10):
Dipsic, el dragón chino del área.

(20:32):
Esto es algo que llegó para quedarse.
Está en todas las pantallas, en boca de todos, al alcance de cualquiera.
Soy Guillermo Jiménez Palacios, analista de Inteligencia Artificial para Masterial Lab.
Y vengo a hablarles de un tema que está sacudiendo la escena global de la Inteligencia Artificial.

(20:55):
El ascenso de Dipsic, la startup china que está desafiando a OpenAI, Google y al orden mundial.
¿Qué significa este avance para la carrera de la IA?
y más poderosa
¿Cómo logró China desarrollar un modelo tan poderoso a pesar de las restricciones tecnológicas impuestas por Estados Unidos?
de la IA?
de la IA?

(21:25):
¿Cómo se puede hacer para que China se vuelva a la de la IA?
¿Cómo se puede hacer para que China se vuelva a la de la IA?
¿Cómo se puede hacer para que China se vuelva a la de la IA?

(21:47):
Para entender por qué Dipsic es un fenómeno tan importante en la IA,
primero tenemos que hablar de su origen.
A diferencia de otras empresas tecnológicas chinas que dependen del apoyo de gigantes
como Alibaba, Tencent o ByteDance, DeepSec nació dentro de una firma financiera, HikeFlyer,
un fondo de cobertura cuantitativo.

(22:08):
HikeFlyer es una de las firmas de inversión algorítmica más exitosas de China.
Antes de las restricciones de Estados Unidos, acumuló miles de chips Nvidia A100.
Liang Wenfeng, su fundador, tomó una decisión clave.

(22:28):
Redirigí sus recursos hacia la investigación en Inteligencia Artificial.
El resultado fue DeepSec R1, un modelo que no solo compite con OpenAI y Anthropic, sino
que además fue lanzado como código abierto.
Mientras OpenAI y Google protegen sus modelos como activos estratégicos, DeepSec ha optado

(22:50):
por la apertura y la colaboración.
¿Estamos viendo un nuevo modelo de desarrollo de Inteligencia Artificial?
El nacimiento de DeepSec no ocurrió en un vacío.
China ha estado en una carrera acelerada para desarrollar su propia infraestructura de Inteligencia
Artificial debido a las restricciones tecnológicas impuestas por Estados Unidos.

(23:11):
En 2022, el gobierno estadounidense restringió la exportación de chips avanzados como los
Nvidia A100, limitando el acceso a China a hardware de alto rendimiento.
Sin embargo, en lugar de frenar el desarrollo, estas restricciones impulsaron la innovación
en software y la optimización computacional.

(23:34):
Según datos de la MIT Technology Review, empresas como Alibaba Cloud y ByteDance aceleraron
sus esfuerzos en Inteligencia Artificial, pero DeepSec ha tomado un enfoque más científico
y colaborativo al priorizar la investigación sobre la comercialización inmediata.
Su modelo DeepSec R1 requiere solo una décima parte del poder computacional que modelos

(23:58):
equivalentes de meta, lo que representa un avance clave en el entorno de restricciones
tecnológicas.
Mientras Occidente apuesta por modelos de IA cada vez más grandes y costosos, China
está demostrando que la eficiencia puede ser la clave para el futuro de la Inteligencia
Artificial.

(24:28):
Para profundizar en este tema, escuchemos la opinión de nuestro especialista en Inteligencia
Artificial, Charlie Chacon, desde Ecuador.
Charlie es programador y creador de IA y nos dará una reflexión sobre la irrupción
de DeepSec y sus implicaciones en el mundo digital.
Con ustedes para Tenzor Podcast, Charlie Chacon.

(24:55):
DeepSec es un modelo de lenguaje open source desarrollado por una compañía china, ya
es la misma empresa ha lanzado otras versiones de DeepSec anteriormente, como DeepSec Coder,
por ejemplo, que es un modelo enfocado al código.
Sin embargo, DeepSec R1 fue la revolución última que tuvimos en IA hace un poco de
tiempo.
En teoría fue entrenado en una menor cantidad de datos de lo que ha sido entrenado, por

(25:17):
ejemplo, O1 de OpenAI, que es un modelo similar.
Sin embargo, DeepSec es capaz de tener resultados similares a este modelo, pero…
coste de operación menor.
¿Es DeepSec una evolución natural o un salto en el mundo de los modelos de lenguaje?

(25:48):
Realmente los modelos de razonamiento no empezaron con DeepSec, ya OpenAI lanzó O1
hace un tiempo ya, y le han seguido a otras empresas haciendo cosas similares.
¿Qué sucede con DeepSec?
DeepSec está siguiendo esta estrategia que están siguiendo ahora las empresas que desarrollan
modelos de lenguaje, que es hacer que el modelo gaste ciertos tokens de inferencia para intentar

(26:11):
resolver el problema antes de dar una solución final.
Es como si tú estuvieras resolviendo una pregunta, pero en vez de dar la pregunta directamente,
te pones un tiempo, te pones a pensar, analizas para ver si realmente vas a dar una respuesta
correcta o no.
Si tienes acceso a los recursos necesarios o no.

(26:34):
Estos modelos tienen una arquitectura de tipo Transformers.
La arquitectura Transformers, básicamente tú tokenizas los inputs, las palabras que
el usuario está dándole al modelo de lenguaje.
Esa tokenización lo que hace es transformar las palabras, los caracteres en tokens que
el modelo puede entender.
Luego, este modelo, cuando dar la respuesta, la da en estos tokens y estos tokens se vuelven

(26:59):
a transformar en lenguaje natural, básicamente.
Los principales desafíos técnicos que se encuentra uno cuando esté entrenando un modelo
de lenguaje es por supuesto los altos costes de entrenamiento.
Imaginémonos que tenemos todos los datos de internet.

(27:20):
Por supuesto es una cantidad de datos enorme, es muchísima información que hay que analizar,
que hay que limpiar y que hay que luego pasar en distintas épocas, que es como se llama
este proceso de entrenamiento, al modelo de lenguaje.
Básicamente el modelo de lenguaje se entrena con todos estos datos varias veces y como

(27:42):
son muchísimos datos, cada época puede tomar un tiempo considerable.
DeepSig es diferente a otros modelos de lenguaje como GPT, Gemini o Cloud, debido a que DeepSig
tiene una forma de funcionamiento distinta.
Los modelos de tipo GPT funcionan simplemente dando la respuesta lo más rápido que pueda

(28:04):
en base al contexto que tiene en ese momento.
Sin embargo, los modelos de razonamiento, que es como se le llaman este tipo de modelos
que piensan antes de dar una respuesta, lo hacen de una forma distinta.
Ellos tienen un output, una salida muchísimo más larga que los modelos de tipo GPT.
Sin embargo estos modelos toman la mayor parte de esta salida para poder pensar, para poder

(28:26):
encontrar una solución a un problema.
Esa es la mayor diferencia que tiene este tipo de modelos como DeepSig con modelos como
Gemini, Cloud u otros modelos que hay actualmente como Mistral también.
Las ventajas que puede tener usar un modelo como DeepSig, DeepSig por ejemplo, es que
si tú tienes la capacidad de cómputo necesaria podrías correrlo completamente en local.

(28:49):
Podrías tener tu propio servidor donde corres tus modelos de lenguaje.
Sin embargo, si tú no tienes esta capacidad de cómputo va a ser imposible que puedas
usar este modelo de forma completamente privada.
Por lo tanto, la mayor ventaja es también su mayor desventaja debido a que no todo el
mundo puede correr este tipo de modelos debido a su gran peso.
Ahora, estos modelos son creativos, estos modelos realmente están pensando, la respuesta sencilla

(29:15):
no.
Los modelos no tienen creatividad y no están realmente pensando como lo hacemos nosotros
los humanos.
Nuestro cerebro es muchísimas veces más complejo y de hecho todavía no entendemos lo suficiente
en nuestro cerebro como entendemos en los modelos de lenguaje, que tampoco los entendemos
del todo porque suelen ser una caja negra.
Dentro del modelo de lenguaje nosotros no sabemos cómo se conectan las neuronas entre

(29:38):
sí.
Sin embargo, en nuestro cerebro sucede algo similar.
Se activan distintas áreas de nuestro cerebro dependiendo de lo que estemos haciendo.
Tenemos áreas especializadas, altamente especializadas de nuestro cerebro para poder ser más creativos,

(29:58):
para poder resolver problemas de una forma distinta, no solamente enfocándonos en una
única solución, sino que muchas veces la mejor solución puede ser incluso una que
no está al alcance de la vista.
Por lo tanto, estos modelos intentan simular el proceso de pensamiento usando algo que
se llama cadena de pensamiento o chain of thought.

(30:19):
Básicamente él piensa algo, después a partir de esto puede ser que piense otra cosa, ese
pensamiento lo lleva a otro pensamiento, pero estos son básicamente tokens, son básicamente
textos, palabras que el modelo bota como output debido a que en su proceso de entrenamiento
se le enseñó a cómo hacer este proceso de pensamiento antes de dar una respuesta.

(30:40):
Sin embargo, esto se ha demostrado que tiene unos resultados muy buenos cuando estamos
evaluando las métricas de cómo se comporta el modelo.
Por lo tanto, ellos no piensan, no son creativos, pero este proceso de tener esa cadena de pensamientos
de mentira, pues los ayuda a tener respuestas que muchas veces incluso nosotros como humanos

(31:02):
nos puede tomar más tiempo en encontrarlo.
Si tú quieres modificar DeepSeek y quieres, por ejemplo, entrenar un modelo o hacer un
destilado, destilado es cuando tú usas un modelo más grande con un modelo más pequeño
para poder reentrenar este modelo más pequeño y darle características del modelo más grande.

(31:27):
En el caso de que quieras hacerlo con DeepSeek, pues vas a tener que tener acceso a una buena
capacidad de cómputo para poder entrenarlo y es algo que yo te recomendaría que hagas,
porque generalmente hoy en día algo que es muy importante es la privacidad de los datos
y la mayor ventaja que tienen estos modelos es que tú puedes tener todo modelo de inteligencia
artificial corriendo completamente local, completamente gratis, bueno, no gratis, porque

(31:50):
necesitas el poder de cómputo para poder correrlo, pero al menos va a ser privado y
vas a poder modificarlo y customizarlo a como tú quieras.
Si quieres que el modelo sea un experto creando letras de canciones, pues lo podrías hacerlo.
Entrenas con un montón de canciones para que él pueda generar letras de canciones
que tengan sentido.
Esas son algunas de las cosas que tengo que decir sobre DeepSeek, es un modelo realmente

(32:12):
interesante que te recomendaría que pruebes y si no sabes cómo probarlo puedes hacerlo
usando Olama, por ejemplo, y si no sabes cómo hacerlo, pues siguen a mi canal de YouTube
AI Charlie para que tú puedas aprender un poco más sobre cómo correr este tipo de modelos de ella.
Pero hay un punto aún más interesante, las implicaciones geopolíticas y económicas.

(32:57):
Antes de revisar reportes y datos de fuentes internacionales como The Verge y el Foro Económico
Mundial, en Tensor Podcast nos planteamos los siguientes puntos.
¿Funcionan realmente las sanciones tecnológicas?
DeepSeek ha demostrado que China puede innovar sin depender de hardware estadounidense.
¿Hay presión sobre Silicon Valley?

(33:19):
Sin duda, OpenAI y Google ahora enfrentan un competidor inesperado que podría acelerar
la carrera hacia la AGI, Inteligencia Artificial General.
Estamos ante un cambio de paradigma?
¿Qué significa esto para el futuro de la IA?

(33:41):
Si aún no nos ha quedado claro que DeepSeek es mucho más que una simple empresa de IA
en China, déjenme decirles que su ascenso representa…
Un desafío directo a Silicon Valley en la carrera de Inteligencia Artificial.
Un nuevo paradigma de eficiencia computacional en la IA.
Un posible cambio en la estructura del mercado de la IA con más iniciativas de código abierto.

(34:03):
Y un recordatorio de que la carrera por la AGI no es exclusiva de Occidente.
Antes de cerrar, les dejo una pregunta para reflexionar.

(34:27):
¿En qué momento la Inteligencia Artificial pasará a ser parte del consumo básico de
tecnología para la humanidad y dejaremos de ver esta batalla por la supremacía tecnológica?
Soy Guillermo Jiménez Palacios y esto es TENSOR Podcast.

(34:55):
Si quieren profundizar en estos temas, encontrar entrevistas exclusivas y acceder a contenido
adicional, los invitamos a visitar nuestro sitio web, TENSOR Podcast.com.
Allí encontrarán análisis, ensayos y datos de última hora sobre la Inteligencia Artificial
y su impacto en el mundo.

(35:16):
Esto fue TENSOR Podcast, episodio número once, el espacio donde exploramos el presente
y el futuro de la Inteligencia Artificial.
Producción y Voces Guillermo Jiménez Palacios y Francisco Gallo Razo Voces de IA son hechas

(35:39):
con Endless, Masería Lab y Hailu.ai.
La ilustración deportada es de la plataforma Masería Lab con el modelo Flux 1.0 Pro.
TENSOR es un podcast de Maser Media.
Gracias por su atención.
Nos escuchamos en el futuro.

(36:07):
La plataforma mexicana Masería Lab ofrece una interfaz intuitiva que integra modelos
avanzados de Inteligencia Artificial para tareas como el procesamiento del lenguaje
natural, la generación de imágenes, la búsqueda semántica, el reconocimiento de voz, el
fine tuning, la búsqueda por Internet, la visión y reconocimiento de imágenes, el uso

(36:28):
de embeddings, el enfoque RAG, Retrieval Augmented Generation y el Machine Learning automatizado
mediante completions de autoaprendizaje.
Además incorpora herramientas diseñadas para el entretenimiento de los usuarios, consolidándose
como un ecosistema innovador que potencia la experiencia y productividad en múltiples

(36:49):
áreas.
Más información en nuestro sitio web, maserintelligenciaartificial.ai
Advertise With Us

Popular Podcasts

24/7 News: The Latest
The Clay Travis and Buck Sexton Show

The Clay Travis and Buck Sexton Show

The Clay Travis and Buck Sexton Show. Clay Travis and Buck Sexton tackle the biggest stories in news, politics and current events with intelligence and humor. From the border crisis, to the madness of cancel culture and far-left missteps, Clay and Buck guide listeners through the latest headlines and hot topics with fun and entertaining conversations and opinions.

The Charlie Kirk Show

The Charlie Kirk Show

Charlie is America's hardest working grassroots activist who has your inside scoop on the biggest news of the day and what's really going on behind the headlines. The founder of Turning Point USA and one of social media's most engaged personalities, Charlie is on the front lines of America’s culture war, mobilizing hundreds of thousands of students on over 3,500 college and high school campuses across the country, bringing you your daily dose of clarity in a sea of chaos all from his signature no-holds-barred, unapologetically conservative, freedom-loving point of view. You can also watch Charlie Kirk on Salem News Channel

Music, radio and podcasts, all free. Listen online or download the iHeart App.

Connect

© 2025 iHeartMedia, Inc.