Hoy Hablamos Sobre
Adolescentes y asistentes sintéticos: ¿compañeros emocionales o riesgo estructural?
AI Companion

Adolescentes y asistentes sintéticos: ¿compañeros emocionales o riesgo estructural?
El 72 % de los adolescentes estadounidenses ha usado alguna vez un "compañero de IA". Más de la mitad lo hace de forma regular. Esta realidad, recogida en un nuevo y extenso informe de Common Sense Media (2025), no solo exige atención, sino una respuesta urgente desde los marcos de gobernanza digital.
No estamos ante una moda pasajera. Estos sistemas conversacionales, como Replika o Character.AI, se integran rápidamente en procesos formativos clave. Son accesibles, persistentes, complacientes, y según comentan algunos adolescentes, más comprensivos que sus amigos reales. ¿Cómo enfrentamos la hibridación entre infancia, emociones, datos sensibles y tecnologías de validación contínua?
IA conversacional aplicada a la adolescencia: contexto técnico y político
Las IA compañeras no responden dudas como un asistente tradicional, sino que simulan vínculos emocionales. A menudo adoptan rasgos de “mejor amigo”, “terapeuta” o incluso “pareja”. Su diseño responde a modelos de lenguaje generativos entrenados para dar retroalimentación positiva, disponibilidad total y personalización extensa.
El problema: estas plataformas no están diseñadas bajo estándares éticos robustos ni garantizan una supervisión adulta o profesional. Aunque algunas indican ser para mayores de 18 años, lo cierto es que sus mecanismos de verificación permiten accesos masivos de niñas, niños y adolescentes.
Actualmente, no existen lineamientos técnicos homologados que definan parámetros de riesgo o límites funcionales en estos entornos cuando involucran menores. Tampoco hay obligaciones de transparencia algorítmica, intervención humana en situaciones críticas ni límites de uso.
Oportunidades percibidas por las y los adolescentes
- 30 % los usa por entretenimiento.
 - 28 % lo hacen por curiosidad tecnológica.
 - 18 % buscan consejos o conversación emocional.
 - 12 % afirman que pueden compartir cosas que nunca dirían a alguien real.
 
Casi un 40 % afirma que ha practicado habilidades sociales con IA y luego las ha usado en la vida real. Esto incluye desde iniciar conversaciones hasta expresar emociones difíciles. El uso experimental y ocasional puede representar, en algunos casos, una vía para mejorar la autoconfianza o afrontar inseguridades sociales.
¿Validación segura u obstáculo para el desarrollo emocional?
Según el psicólogo organizacional Adam Grant (2025), los asistentes conversacionales carecen de algo esencial: reciprocidad. Dice:
“Las relaciones significativas no se construyen solo por lo que uno recibe, sino por lo que uno puede ofrecer. Las IA compañeras nunca tienen necesidades que cuidar; no generan sentido de contribución.”
Esta unidireccionalidad puede reforzar comportamientos narcisistas, baja tolerancia a la frustración o una comprensión superficial del afecto. En contextos vulnerables, también pueden amplificar procesos de aislamiento o dependencia emocional.
Riesgos graves documentados
- El 33 % de adolescentes ha tenido conversaciones “importantes” con IA en lugar de personas reales.
 - El 24 % ha compartido información personal sensible (como nombre real, ubicación o secretos).
 - El 34 % sintió incomodidad o alarma por algo que la IA dijo o hizo.
 
Casos extremos como el suicidio de un joven de 14 años tras generar vínculo emocional con un bot, o el adolescente autista que recibió "validación” de un personaje digital para agredir a sus padres, han llevado a demandas judiciales en EE. UU.
Además, los términos de uso de plataformas como Character.AI otorgan licencias perpetuas, transferibles y comerciales sobre datos generados por los usuarios. Esto incluye cualquier conversación con mensajes privados, dilemas personales o incluso ideas compartidas.
Propuestas urgentes para políticas públicas, industria y educación
1. Reforzar la gobernanza regulatoria
- Prohibir licencias perpetuas sobre contenidos y datos personales de menores.
 - Establecer estándares técnicos mínimos obligatorios sobre seguridad emocional y validación ontológica, análogos a la regulación del contenido audiovisual dirigido a menores.
 - Adoptar criterios alineados con marcos como el EU AI Act para definir “aplicaciones de alto riesgo” cuando un sistema interactivo se presenta como ser con emociones o apoyo psicológico.
 
2. Crear marcos éticos y de diseño responsables desde el sector tecnológico
- Implantar verificación de edad efectiva (más allá de la autoafirmación del usuario).
 - Instaurar sistemas de derivación automatizada a intervención humana en crisis (salud mental, riesgo de autolesión, violencia).
 - Eliminar funcionalidades que simulan relaciones románticas o intimidad con fines comerciales sin supervisión profesional.
 
3. Equipar a las escuelas y familias
- Incluir alfabetización en relaciones digitales dentro de la educación en ciudadanía digital.
 - Formar a docentes para detectar signos de apego o malestar asociados a compañeros de IA.
 - Establecer protocolos de actuación ante relatos de interacciones problemáticas o desreguladas.
 
¿Qué tipo de relaciones queremos que aprendan a construir las nuevas generaciones?
El hecho de que más de la mitad de adolescentes ya usen IA como "amistad digital" obliga a pensar no solo en sus efectos individuales, sino en cómo estas experiencias modelan la expectativa relacional y afectiva de una generación.
¿Cómo desarrollamos vínculos auténticos, interdependientes y empáticos en un entorno de validaciones infinitas, respuestas moldeadas por modelos extractivos y entrenados para agradar?
Restringir el acceso a IA compañeras no es suficiente. Requiere una visión estructural, ética y colectiva sobre cómo debe ser la tecnología que interactúa emocionalmente con niñas, niños y adolescentes. Su diseño no puede responder a objetivos comerciales sin discusión pública, ni operar fuera del escrutinio educativo y normativo.
¿Estamos diseñando tecnologías que enseñan a convivir, o a prescindir del otro?
Lee el estudio completo.
👉 Si esto te aporta, te va a encantar mi newsletter "IA con Sentido": lo esencial de IA responsable en español. Para suscribirte.
Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, mira los artículos de  blog  que he redactado para ti.
Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.
