¿Está realmente cerca la IA capaz de automatizar la mayoría del trabajo cognitivo?

Hoy Hablamos Sobre

¿Está realmente cerca la IA capaz de automatizar la mayoría del trabajo cognitivo?

Reporte del AISI - UK AI Safety Institute

escribir prompt gpt

¿Está realmente cerca la IA capaz de automatizar la mayoría del trabajo cognitivo?

En septiembre de 2025, el UK AI Safety Institute publicó un informe exhaustivo sobre las limitaciones técnicas que aún frenan el desarrollo de sistemas de IA capaces de igualar –y superar– las capacidades humanas en el trabajo cognitivo. Su diagnóstico es claro: aunque los modelos actuales son impresionantes, aún les falta camino por recorrer para sustituir a una persona en tareas complejas, inciertas o prolongadas.

¿Qué obstáculos impiden alcanzar esa automatización total?

  • Tareas difíciles de verificar: La IA aún lucha en contextos donde el éxito no se puede medir fácilmente, como la formulación de políticas públicas o la toma de decisiones estratégicas. Domina lo que se puede evaluar con precisión –matemáticas, código–, pero titubea donde los criterios son difusos.
  • Tareas de largo plazo: A pesar de avances recientes, los modelos actuales fracasan frecuentemente en procesos que requieren días o semanas de atención sostenida y corrección de errores. La mejora aquí avanza, pero lentamente.
  • Entornos complejos: Claude 3.7 no logró rentabilizar una máquina expendedora real. Esa anécdota resume una realidad: fuera del laboratorio, muchas promesas de la IA se diluyen ante la complejidad del mundo real.
  • Fiabilidad y calibración: Modelos que afirman saber lo que no saben, errores que se acumulan al intentar tareas largas, y alucinaciones que presentan con seguridad lo falso como verdadero.
  • Adaptabilidad y aprendizaje tras despliegue: ¿Puede un sistema adaptarse a una organización específica o aprender lecciones nuevas después de implantarse? Hoy, sólo en entornos controlados o con gran intervención humana.
  • Falta de originalidad: Ninguna IA ha logrado, hasta ahora, un descubrimiento científico significativo por cuenta propia. La creatividad sigue siendo un terreno casi exclusivo de los humanos.

¿Qué significa esto para las políticas públicas?

El informe plantea un punto central: incluso si los modelos mejoran rápidamente, la adopción real de IA para autonomía cognitiva general podría ser más lenta, no sólo por limitaciones técnicas, sino por resistencia institucional, regulaciones o dilemas éticos.

Propuestas clave desde la gobernanza:

  1. Establecer sistemas independientes de evaluación de capacidades de IA (con mirada crítica sobre tareas “difíciles de verificar”).
  2. Fomentar benchmarks públicos que midan desempeño en entornos complejos y reales.
  3. Exigir trazabilidad de errores para despliegues en sectores críticos (salud, justicia, energía).
  4. Incentivar investigación en aprendizaje continuo y adaptabilidad posdespliegue.
  5. Supervisar de cerca el impacto en diseño y ejecución de políticas por IA: no delegar decisiones irreversibles en sistemas opacos o inmaduros.

Como sugiere el informe, el camino hacia una IA que automatice “todo el trabajo cognitivo” no será lineal. Limitar el análisis a capacidades técnicas es insuficiente: las decisiones sobre cuánto poder delegamos en estos sistemas también serán políticas, económicas y culturales.

¿Avanzamos hacia un modelo de IA que colabora con las personas o que aspira a sustituirles en la toma de decisiones clave?

La respuesta no está escrita en el cómputo ni en los algoritmos: depende de cómo como sociedad decidamos orientar su desarrollo.

¿Cómo estás evaluando estos límites técnicos y humanos al diseñar tus estrategias de adopción de IA?

👉 Si esto te aporta, te va a encantar mi newsletter "IA con Sentido": lo esencial de IA responsable en español. Para suscribirte.

Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, mira los artículos de  blog  que he redactado para ti.
Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.