El Código S.E.N.S.E.
«Un thriller que enciende la conversación ética sobre IA en las aulas.»
Para alumnos, familias y docentes que quieren que los niños usen la IA de forma responsable. Un thriller psicológico que los alumnos devoran por pura intriga. Mientras ellos se sumergen en la trama, sus docentes aplican dinámicas que revelan la verdadera salud ética y el riesgo de plagio en el salón.
Las escuelas enfrentan un vacío crítico
El avance de la Inteligencia Artificial ha superado la capacidad de respuesta de los reglamentos escolares tradicionales. Los alumnos habitan un entorno de hiper-vigilancia digital que erosiona su autonomía y pone en riesgo la integridad académica.
El docente no necesita ser experto
El libro actúa como mediador. La historia presenta el dilema y la Guía del Docente con el «Reto S.E.N.S.E.» al final de cada capítulo abre el debate automáticamente en el aula.
Alfabetización en riesgos del MIT
Traduce la compleja taxonomía del MIT AI Risk Repository en situaciones de vida o muerte que los alumnos pueden entender y discutir. Cada riesgo está alineado con estándares internacionales.
Ciudadanía digital en acción
Pasa de la teoría a la práctica, equipando a los niños con las preguntas éticas necesarias para cuestionar la tecnología que ya están usando a diario.
Una historia que los atrapa por el suspenso
Una historia que los niños querrán leer por el suspenso y que los dejará equipados con las preguntas éticas que sus maestros aún no saben responder, basada en los riesgos reales del MIT AI Risk Repository.
«El Código S.E.N.S.E.» no solo cuenta una distopía; entrena a la generación que debe evitar que ocurra.
Cada capítulo explica un riesgo del MIT Risk Repository
El libro está diseñado para que, mientras los lectores viven la intriga, descubran de forma natural los principales riesgos de la IA documentados por el MIT AI Risk Repository. Así aprenden a identificar peligros reales como:
📹 Vigilancia masiva
El capítulo de IRIS muestra cómo el monitoreo biométrico puede anular la autonomía.
🧠 Pérdida de agencia
Valentina siente que su cuerpo y decisiones ya no le pertenecen — un riesgo central del repositorio MIT.
⚙️ Optimización sin ética
Arturo usa la IA para “optimizar” el futuro de los alumnos, sacrificando libertad y diversidad.
🎭 Gaslighting algorítmico
El sistema hace dudar a los alumnos de su propia percepción, un riesgo psicológico documentado.
Cada riesgo está alineado con la taxonomía del MIT AI Risk Repository, convirtiendo la lectura en una experiencia de alfabetización en riesgos de IA. Los niños no solo leen, sino que aprenden a usar la IA conociendo sus límites.
Para quién es este libro
Un recurso diseñado para los tres pilares fundamentales que buscan un uso responsable de la IA.
Para Docentes
Recurso de debate inmediato. Una herramienta lista para usar en clase que genera diálogos sobre propiedad intelectual, sesgos y vigilancia masiva sin requerir un manual técnico.
Puente pedagógico. La clase se convierte en un laboratorio de ética aplicada donde el maestro guía la reflexión en lugar de solo impartir datos.
Para Alumnos (9–15 años)
Entretenimiento de alto impacto. Un thriller de suspenso sensorial que querrán leer por la historia de Valentina, no por obligación escolar.
Criterio propio. Los empodera para identificar riesgos reales (como el nudging o la manipulación afectiva) en las aplicaciones que usan a diario.
Para Familias
Conversación intergeneracional. Abre la puerta a cenas y charlas sobre los peligros de delegar la autonomía a los algoritmos.
Guía de uso ético. Ayuda a los padres a establecer límites claros basados en el respeto a la identidad y la privacidad analógica.
Es para ti si...
SÍ es para ti si:
- Quieres que los niños dominen la IA con límites éticos claros.
- Buscas una herramienta para abrir conversaciones profundas sobre riesgos reales validados por el MIT.
- Crees firmemente que el criterio humano debe estar siempre por encima del algoritmo.
- Te preocupa que la tecnología opaque la autonomía de las nuevas generaciones.
NO es para ti si:
- Buscas un manual técnico de programación o código.
- Prefieres ignorar los dilemas éticos y los riesgos de la IA.
- Crees que los niños deben usar IA sin ningún tipo de supervisión o reflexión previa.
La Academia: el panóptico de mármol
Un colegio exclusivo de Cancún. Mármol blanco, cristal y transparencia total. Bajo una red de cámaras 8K, el sistema monitorea cada latido para asegurar que el éxito sea la única opción.
Todos los alumnos dependen de IRIS, una IA que evolucionó de ser una herramienta de apoyo a un sistema de control que lee pupilas, corazones y temperatura para corregir cualquier comportamiento «ineficiente».
Valentina es el «Sujeto de Oro»: la alumna de perfil perfecto bajo el algoritmo. Pero empieza a sentir que IRIS es una armadura que la asfixia. Su cuerpo ya no le pertenece; es la red quien la disecciona en metadatos.
Cuando descubre que ha sido marcada para un Reinicio de Perfil —un proceso diseñado para borrar su identidad— Valentina deberá elegir: someterse al algoritmo o luchar por su soberanía.
La pregunta que recorre cada página: ¿Es la voluntad humana un error de diseño o es el pilar sagrado de nuestra identidad?
Personajes
Más que un libro: un programa de diagnóstico
La metodología S.E.N.S.E. permite que tu institución lidere con ética bajo estándares del MIT. El objetivo es que la tecnología sea siempre una herramienta de apoyo para sus estudiantes.
La Guía del Docente: un diagnóstico institucional
Cada ejemplar incluye una Guía para el Facilitador que convierte la lectura en una auditoría ética en tiempo real. A través de dinámicas anónimas y proyectivas, el docente recolecta datos sobre:
Nivel de dependencia del grupo hacia las herramientas de IA.
Vulnerabilidad de los alumnos ante la manipulación de datos.
Capacidad de resolución de problemas sin asistencia externa.
Al finalizar, su institución recibirá un Diagnóstico de Salud Digital basado en la fórmula de Resistencia Soberana, donde la Voluntad Humana recupera el mando sobre el Sistema de Alineación, garantizando que la tecnología sea un apoyo y no un reemplazo del criterio del alumno.
Un marco ético para instituciones líderes
Karine Boucher
Experta en Gobernanza de IA y Ética Tecnológica con formación en el MIT y 25 años de trayectoria corporativa. Mi propuesta es transformar la incertidumbre tecnológica en una ventaja competitiva para su colegio mediante el método S.E.N.S.E.
Fundadora de karine.ai · Guardiana de la Humanidad Digital ·
Hacia la certificación «Escuela con Sentido»
Este programa es la puerta de entrada para certificar a su colegio como una institución de IA Responsable.
Protocolos de Gobernanza
Creación de marcos legales y éticos para el uso de IA en su institución educativa.
Capacitación Docente
Formación en diseño de tareas a prueba de plagio y uso ético de herramientas de IA en el aula.
Workshops para Padres
Herramientas de seguridad humana para el hogar. Porque la ética digital empieza en casa.
Asegure el prestigio de su institución hoy
La pregunta no es si sus alumnos usarán la IA, sino quién tendrá el control cuando lo hagan: el algoritmo o el criterio humano.
