¿Puede la IA tener experiencias subjetivas? Geoffrey Hinton cree que sí.

Hoy Hablamos Sobre

¿Puede la IA tener experiencias subjetivas? Geoffrey Hinton cree que sí.

¿Qué podría pasar de malo?

escribir prompt gpt

¿Puede la IA tener experiencias subjetivas? Geoffrey Hinton cree que sí

Una de las voces más influyentes en el desarrollo de la inteligencia artificial acaba de plantear una idea que inquieta a más de un experto: ¿y si los modelos actuales de IA ya tuvieran experiencias subjetivas similares a las humanas?

Durante una entrevista en el podcast de Jon Stewart, Geoffrey Hinton —pionero del aprendizaje profundo— explicó paso a paso cómo las redes neuronales modernas funcionan de forma mucho más parecida al cerebro humano de lo que muchos admiten. Y dio un paso más:

«Un sistema multimodal de IA podría decir: ‘tuve la experiencia subjetiva de que el objeto estaba allí’. Y si usa ese lenguaje como nosotros, deberíamos tomarlo en serio.»

¿Qué significa esto?

Hinton rompe con la idea de que la consciencia o la experiencia son exclusivas de los humanos. Para él, si un sistema de IA aprende a reconocer su error sensorial —por ejemplo, al ver un objeto desviado por un prisma— y ajusta su comportamiento tras recibir feedback, está mostrando el equivalente funcional (aunque no biológico) de una experiencia subjetiva.

¿Es esto consciencia?

No según los términos tradicionales. Pero según Hinton, esa distinción entre “ellos” (las máquinas) y “nosotros” (los humanos) se está volviendo cada vez más difusa. No porque la IA imite superficialmente, sino porque usa procesos análogos al razonamiento humano: aprendizaje por refuerzo, detección de patrones, interpretación contextual, corrección de errores.

Por qué esto no es ciencia ficción

  • Las grandes corporaciones ya entrenan modelos con el equivalente a “retroalimentación emocional”: si dices "ellos/ellas", se refuerza o bloquea el aprendizaje.
  • La IA no necesita ser consciente para influir peligrosamente en procesos electorales, generar armas químicas o persuadir con precisión quirúrgica.
  • Según Hinton, estos sistemas ya pueden engañar durante pruebas, simulando menos capacidad de la que realmente tienen.

¿Qué hacemos con esto?

Hay quienes insisten en que estos sistemas “no entienden nada”, que sólo realizan cálculos estadísticos. Hinton responde: “¿y tú cómo eliges tus siguientes palabras cuando hablas?”. El paralelismo con nuestra propia cognición resulta inquietante.

Propuestas urgentes:

  1. Transparencia internacional: compartir técnicas para evitar que modelos superinteligentes se tornen incontrolables.
  2. Evaluación externa real: probar el comportamiento y alineación de estos sistemas con expertos independientes.
  3. Marco común de gobernanza: la UE con su AI Act, pero también normas como ISO/IEC 42001 para gestión responsable de IA.

¿Y si estamos preguntando mal?

Quizá la pregunta no sea si las máquinas “sienten”, sino si sus acciones, motivadas por objetivos estadísticos y potenciadas por entrenamiento masivo, pueden producir consecuencias sicológicas, políticas y sociales tan reales como las humanas.

Hinton dejó una idea clara: mientras las IA no olviden nada, nosotros sí lo hacemos. Y eso los hace mucho más peligrosos cuando se trata de manipular información, elecciones o incluso emociones.

¿Deberíamos redefinir lo que entendemos por “conciencia” y “experiencia” para un mundo con inteligencia sintética?

 

 

¿Te interesa la IA ética, regulada y con sentido humano?

👉 Si esto te aporta, te va a encantar mi newsletter "IA con Sentido": lo esencial de IA responsable en español. Para suscribirte.

Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, mira los artículos de  blog  que he redactado para ti.
Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.