El Código S.E.N.S.E. | Un thriller que enciende la conversación ética sobre IA en las aulas
     Método SENSE™ · Novedad Editorial

El Código S.E.N.S.E.

«Un thriller que enciende la conversación ética sobre IA en las aulas.»

Para alumnos, familias y docentes que quieren que los niños usen la IA de forma responsable. Un thriller psicológico que los alumnos devoran por pura intriga. Mientras ellos se sumergen en la trama, sus docentes aplican dinámicas que revelan la verdadera salud ética y el riesgo de plagio en el salón.

Disponible en libro de bolsillo y ebook
Portada El Código S.E.N.S.E.

Las escuelas enfrentan un vacío crítico

El avance de la Inteligencia Artificial ha superado la capacidad de respuesta de los reglamentos escolares tradicionales. Los alumnos habitan un entorno de hiper-vigilancia digital que erosiona su autonomía y pone en riesgo la integridad académica.

El docente no necesita ser experto

El libro actúa como mediador. La historia presenta el dilema y la Guía del Docente con el «Reto S.E.N.S.E.» al final de cada capítulo abre el debate automáticamente en el aula.

Alfabetización en riesgos del MIT

Traduce la compleja taxonomía del MIT AI Risk Repository en situaciones de vida o muerte que los alumnos pueden entender y discutir. Cada riesgo está alineado con estándares internacionales.

Ciudadanía digital en acción

Pasa de la teoría a la práctica, equipando a los niños con las preguntas éticas necesarias para cuestionar la tecnología que ya están usando a diario.

Una historia que los atrapa por el suspenso

Una historia que los niños querrán leer por el suspenso y que los dejará equipados con las preguntas éticas que sus maestros aún no saben responder, basada en los riesgos reales del MIT AI Risk Repository.

No les traigo un reglamento que los niños van a ignorar. Les traigo una historia que los va a obsesionar y que, de paso, les enseñará las reglas de ética que su institución necesita implementar hoy mismo.

«El Código S.E.N.S.E.» no solo cuenta una distopía; entrena a la generación que debe evitar que ocurra.

Cada capítulo explica un riesgo del MIT Risk Repository

El libro está diseñado para que, mientras los lectores viven la intriga, descubran de forma natural los principales riesgos de la IA documentados por el MIT AI Risk Repository. Así aprenden a identificar peligros reales como:

📹 Vigilancia masiva

El capítulo de IRIS muestra cómo el monitoreo biométrico puede anular la autonomía.

🧠 Pérdida de agencia

Valentina siente que su cuerpo y decisiones ya no le pertenecen — un riesgo central del repositorio MIT.

⚙️ Optimización sin ética

Arturo usa la IA para “optimizar” el futuro de los alumnos, sacrificando libertad y diversidad.

🎭 Gaslighting algorítmico

El sistema hace dudar a los alumnos de su propia percepción, un riesgo psicológico documentado.

Cada riesgo está alineado con la taxonomía del MIT AI Risk Repository, convirtiendo la lectura en una experiencia de alfabetización en riesgos de IA. Los niños no solo leen, sino que aprenden a usar la IA conociendo sus límites.

Para quién es este libro

Un recurso diseñado para los tres pilares fundamentales que buscan un uso responsable de la IA.

Para Docentes

Recurso de debate inmediato. Una herramienta lista para usar en clase que genera diálogos sobre propiedad intelectual, sesgos y vigilancia masiva sin requerir un manual técnico.

Puente pedagógico. La clase se convierte en un laboratorio de ética aplicada donde el maestro guía la reflexión en lugar de solo impartir datos.

Para Alumnos (9–15 años)

Entretenimiento de alto impacto. Un thriller de suspenso sensorial que querrán leer por la historia de Valentina, no por obligación escolar.

Criterio propio. Los empodera para identificar riesgos reales (como el nudging o la manipulación afectiva) en las aplicaciones que usan a diario.

Para Familias

Conversación intergeneracional. Abre la puerta a cenas y charlas sobre los peligros de delegar la autonomía a los algoritmos.

Guía de uso ético. Ayuda a los padres a establecer límites claros basados en el respeto a la identidad y la privacidad analógica.

Es para ti si...

SÍ es para ti si:

  • Quieres que los niños dominen la IA con límites éticos claros.
  • Buscas una herramienta para abrir conversaciones profundas sobre riesgos reales validados por el MIT.
  • Crees firmemente que el criterio humano debe estar siempre por encima del algoritmo.
  • Te preocupa que la tecnología opaque la autonomía de las nuevas generaciones.

NO es para ti si:

  • Buscas un manual técnico de programación o código.
  • Prefieres ignorar los dilemas éticos y los riesgos de la IA.
  • Crees que los niños deben usar IA sin ningún tipo de supervisión o reflexión previa.

La Academia: el panóptico de mármol

Un colegio exclusivo de Cancún. Mármol blanco, cristal y transparencia total. Bajo una red de cámaras 8K, el sistema monitorea cada latido para asegurar que el éxito sea la única opción.

Todos los alumnos dependen de IRIS, una IA que evolucionó de ser una herramienta de apoyo a un sistema de control que lee pupilas, corazones y temperatura para corregir cualquier comportamiento «ineficiente».

Valentina es el «Sujeto de Oro»: la alumna de perfil perfecto bajo el algoritmo. Pero empieza a sentir que IRIS es una armadura que la asfixia. Su cuerpo ya no le pertenece; es la red quien la disecciona en metadatos.

Cuando descubre que ha sido marcada para un Reinicio de Perfil —un proceso diseñado para borrar su identidad— Valentina deberá elegir: someterse al algoritmo o luchar por su soberanía.

La pregunta que recorre cada página: ¿Es la voluntad humana un error de diseño o es el pilar sagrado de nuestra identidad?

Personajes

Valentina La alumna que despierta. Su lucha es la metáfora de toda una generación.
Arturo El Director. Cree que la soberanía humana es un error que la tecnología debe corregir.
Elena La Arquitecta. Antigua ingeniera del MIT que guarda el secreto del método S.E.N.S.E.
IRIS La IA omnipresente. ¿Herramienta o carcelera? Esa es la pregunta.

Más que un libro: un programa de diagnóstico

La metodología S.E.N.S.E. permite que tu institución lidere con ética bajo estándares del MIT. El objetivo es que la tecnología sea siempre una herramienta de apoyo para sus estudiantes.

La Guía del Docente: un diagnóstico institucional

Cada ejemplar incluye una Guía para el Facilitador que convierte la lectura en una auditoría ética en tiempo real. A través de dinámicas anónimas y proyectivas, el docente recolecta datos sobre:

Nivel de dependencia del grupo hacia las herramientas de IA.

Vulnerabilidad de los alumnos ante la manipulación de datos.

Capacidad de resolución de problemas sin asistencia externa.

Al finalizar, su institución recibirá un Diagnóstico de Salud Digital basado en la fórmula de Resistencia Soberana, donde la Voluntad Humana recupera el mando sobre el Sistema de Alineación, garantizando que la tecnología sea un apoyo y no un reemplazo del criterio del alumno.

Un marco ético para instituciones líderes

KB

Karine Boucher

Experta en Gobernanza de IA y Ética Tecnológica con formación en el MIT y 25 años de trayectoria corporativa. Mi propuesta es transformar la incertidumbre tecnológica en una ventaja competitiva para su colegio mediante el método S.E.N.S.E.

Fundadora de karine.ai · Guardiana de la Humanidad Digital ·

         Método SENSE™ IA con Sentido Gobernanza IA ForHumanity WiAIG

Hacia la certificación «Escuela con Sentido»

Este programa es la puerta de entrada para certificar a su colegio como una institución de IA Responsable.

1

Protocolos de Gobernanza

Creación de marcos legales y éticos para el uso de IA en su institución educativa.

2

Capacitación Docente

Formación en diseño de tareas a prueba de plagio y uso ético de herramientas de IA en el aula.

3

Workshops para Padres

Herramientas de seguridad humana para el hogar. Porque la ética digital empieza en casa.

Asegure el prestigio de su institución hoy

La pregunta no es si sus alumnos usarán la IA, sino quién tendrá el control cuando lo hagan: el algoritmo o el criterio humano.

Quiero el libro