¿Y si Yann LeCun tuviera razón sobre el rumbo equivocado de la IA?

Hoy Hablamos Sobre

¿Y si Yann LeCun tuviera razón sobre el rumbo equivocado de la IA?

Yann LeCun

escribir prompt gpt

¿Y si Yann LeCun tuviera razón sobre el rumbo equivocado de la IA?

“He acertado con la IA durante 40 años. Ahora creo que todos están equivocados”. Así se titula el artículo del Wall Street Journal que revela por qué uno de los padres del deep learning cree que los modelos de lenguaje han llegado a su límite.

Yann LeCun, científico jefe de IA en Meta, desafía la moda dominante. Mientras casi toda la industria apuesta por LLMs cada vez más grandes, LeCun insiste: están sobrevalorados. Y está apostando su futuro a otra visión.

¿Qué propone? “World models”: sistemas inspirados en cómo aprenden los seres vivos, como gatos o niños, observando y actuando en el entorno. No se basan en texto, sino en señales sensoriales como la visión, el movimiento y la memoria contextual.

Él cree que los modelos actuales LLM:

  • Predicen palabras sin verdadera comprensión
  • Carecen de sentido común y capacidad para planificar
  • Alcanzarán pronto una meseta, sin importar cuánto se escalen
“Si eres un estudiante de doctorado en IA, no trabajes en LLMs” — Yann LeCun

¿Por qué Yann LeCun considera que los modelos de lenguaje grande (LLM) son una vía muerta para alcanzar la inteligencia artificial general?

Yann LeCun, uno de los pioneros más influyentes en inteligencia artificial y actual científico jefe de IA en Meta, sostiene que los LLM actuales no poseen comprensión del mundo real. Según él, basar el avance hacia la inteligencia artificial general en modelos que solo predicen texto no permitirá emular el razonamiento humano. LeCun propone, en cambio, el desarrollo de "modelos del mundo" que aprendan a partir de información sensorial del entorno, como hacen bebés y animales, integrando percepción, acción y predicción en tiempo real.

Un ejemplo empresarial es Tesla, que apuesta por modelos que procesan datos visuales del entorno para la conducción autónoma, en lugar de LLM que dependen de información textual. Estos sistemas buscan construir una representación dinámica del entorno físico, clave para operar con autonomía en contextos complejos.

Fuente: Wall Street Journal, artículo de Meghan Bobrowsky


LeCun busca cambiar la conversación de “¿cómo controlamos a los LLMs?” a “¿qué tipo de inteligencia queremos construir realmente?”. Esto tiene implicaciones clave para la gobernanza, la regulación y el futuro mismo de los sistemas inteligentes.

Yann LeCun vs. el consenso: ¿Estamos apostando por el modelo de IA equivocado?

En plena carrera global por la inteligencia artificial generativa, donde gigantes como OpenAI, Google y Meta compiten por modelos cada vez más grandes, LeCun lanza una advertencia crucial: los LLMs son un callejón sin salida. Su visión: máquinas que entienden el mundo observando, no sólo procesando texto.

Está actuando en consecuencia: planea su salida de Meta y busca fundar una startup enfocada en “world models”. Este planteo cobra relevancia no sólo por sus credenciales, sino por el momento. Mientras reguladores, inversores y gobiernos diseñan políticas y reparten recursos, ¿no conviene abrir la mirada?

World models: más allá del texto

  • Mecanismos de razonamiento causal y simulación del entorno
  • Menor dependencia de corpus masivos de texto → Valioso para proteger lenguas y culturas menos representadas digitalmente
  • Capacidad de integrar múltiples sentidos: visión, espacio, lenguaje → clave para IA general encarnada

🌍 Si los LLMs son oradores brillantes, los world models serían exploradores: aprenden caminando, tropezando y volviendo a intentar. Inteligencia experiencial, no textual.

¿Qué riesgos trae este debate?

  • Polarización en inversión e investigación → se necesitan enfoques híbridos y cooperación
  • Gobiernos y medios cegados por métricas de rendimiento a corto plazo
  • Regulaciones centradas en LLMs pueden desatender nuevos vectores emergentes

Algunos expertos coinciden

Yoshua Bengio y Gary Marcus también han planteado dudas sobre la escalabilidad de los LLMs. Bengio insiste en marcos de IA Responsable basados en control de riesgos sistémicos. Virginia Dignum, asesora de UNESCO, advierte: regular como si la opacidad fuera inevitable es una renuncia política.

¿Qué impactos tiene esto en la gobernanza?

  1. Fomentar diversidad arquitectónica en IA pública → incluir world models desde el diseño
  2. Evitar sesgos tecnocientíficos en normas como el AI Act o ISO/IEC 42001
  3. Auditorías comparativas por tipo de modelo → más allá del caso de uso
  4. Crear espacios seguros para debate técnico plural sin penalización profesional

🧭 ¿Qué acciones prácticas puedes considerar en tu organización?

  • Recordar que no toda IA en 2025 será un chatbot
  • Fomentar marcos interdisciplinarios de evaluación como ISO/IEC 42001 o NIST
  • Conectar capacidades técnicas con necesidades humanas
  • Promover transparencia sobre límites, contexto y usos reales

¿Estamos mirando al lugar equivocado?

La historia tecnológica está llena de supuestos que cayeron rápido. El enfoque de LeCun reabre la pregunta central: ¿qué tipo de inteligencia queremos desarrollar?

Sus ideas no niegan los avances de los LLMs, pero nos invitan a pensar más allá del “boom” mediático. La IA que diseñamos hoy configurará el reparto de poder, riesgos y oportunidades en la próxima década.

¿Quién debe decidir qué IA construimos? ¿Sobre qué valores y con qué límites?


¿Por qué Yann LeCun considera que los modelos de lenguaje son un camino equivocado para la inteligencia artificial?

Yann LeCun, uno de los pioneros en inteligencia artificial, afirma que los modelos de lenguaje grande (LLM) tipo ChatGPT no llevarán a una inteligencia similar a la humana. Según LeCun, estos modelos "predicen texto" sin comprender el mundo, mientras que una IA verdaderamente general debe interactuar con su entorno y formar representaciones internas complejas: lo que él llama "modelos del mundo". Para LeCun, escalar LLMs no resolverá sus limitaciones estructurales.

Por ejemplo, un chatbot LLM puede generar una respuesta coherente en lenguaje natural, pero no puede navegar físicamente una habitación o entender conceptos espaciales sin ser entrenado con datos visuales, táctiles o motores. Esto limita su aplicación en robótica, logística o simulaciones cognitivas en ciudades inteligentes.

Fuente: Wall Street Journal: Yann LeCun Thinks Everyone is Wrong About AI

¿Qué son los “modelos del mundo” en inteligencia artificial y cómo difieren de los LLM?

Los modelos del mundo son arquitecturas de IA que aprenden representaciones internas del entorno físico y social. Se basan en entradas sensoriales (visuales, auditivas o motoras) para construir una forma de "comprensión" similar a como lo hace un ser humano o animal en sus primeras etapas. A diferencia de los LLM, que generan texto a partir de estadísticas lingüísticas, los modelos del mundo aprenden sobre causalidad, espacio, tiempo y objetos mediante interacción directa.

Un ejemplo es el proyecto DreamerV3 de DeepMind, donde un agente aprende en simuladores a largo plazo usando predicciones de estados futuros sin necesidad de recompensas inmediatas. Este enfoque es fundamental en robótica avanzada, vehículos autónomos o sistemas de planificación urbana basados en simulaciones realistas.

Fuente: DreamerV3: World Models for Actor-Critic Reinforcement Learning

¿Qué impacto tiene el cambio de enfoque de Meta en sus investigaciones en IA?

Meta ha cambiado su estrategia hacia resultados más inmediatos mediante la consolidación de su división de IA bajo liderazgos centrados en rendimiento de producto. Esto ha reducido recursos a su grupo de investigación fundamental (FAIR), donde Yann LeCun desarrollaba ideas a largo plazo como los modelos del mundo. El nuevo enfoque se orienta a escalar LLMs como Llama y competir directamente con ChatGPT y Gemini.

Un caso comparable se observa en IBM, que a partir de 2020 revalorizó su inversión en investigación fundamental para priorizar WatsonX, tras un giro estratégico con foco en retorno comercial inmediato frente a IA explicativa. Como consecuencia, los proyectos de IA ética y cognitiva decrecieron en visibilidad operativa.

Fuente: WSJ: LeCun se aparta del enfoque comercial de Meta en IA

¿Qué recomendaciones ofrece Yann LeCun a las nuevas generaciones que desean trabajar en IA?

LeCun recomienda a los estudiantes de doctorado que eviten trabajar en LLMs tradicionales. En su lugar, sugiere concentrarse en arquitecturas aún no exploradas que integren percepción sensorial, modelado del entorno e interacción. Según él, los perfiles técnicos con fundamentos sólidos en física o matemáticas pueden enriquecer el pensamiento computacional en estas nuevas áreas de investigación.

La Agencia Nacional Francesa de Investigación (ANR) financia programas de IA híbrida basados en conocimiento simbólico más aprendizaje profundo, donde investigadores jóvenes aplican sus habilidades para crear modelos explicables útiles al sector salud y administración pública. Priorizar este tipo de caminos incrementa la relevancia social del trabajo científico.

Fuente: Gobierno de Francia: Programa Nacional de IA Responsable



Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, lee mis artículos de  blog que he redactado para ti.

✅ Suscríbete a mi newsletter para recibir cada semana lo más relevante de la IA Responsable

Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.


#IAResponsable #WorldModels #LLMs #PolíticaTecnológica #GobernanzaAlgorítmica #AuditoríasIA #SoberaníaTecnológica #MetaAI


Foto de Karine Boucher

Karine Boucher

👩🏻‍💻 Apasionada con estrategias de IA Responsable y Gobernanza de la IA centrada en el humano.

🔗 Los recursos que te regalo.

🧩 #GobernanzaIA #IARresponsable #AIForGood