Hoy hablamos de: la diferencia entre entender que el criterio humano importa cuando usas IA — y tener el sistema real para protegerlo cada día. Una distinción que lo cambia todo.
Compré los tenis. Llevo semanas sin correr. Lo que eso tiene que ver con tu criterio y la IA
Hay una brecha real entre comprender que la IA requiere criterio humano y tener el protocolo para protegerlo. Esta edición explora cómo cerrar esa distancia con sistema, no con intención.
¿Qué significa "instalar el criterio" en el contexto del uso de inteligencia artificial?
"Instalar el criterio" es el proceso mediante el cual una comprensión intelectual sobre cómo relacionarse con la IA de forma ética y consciente se convierte en un sistema de hábitos, protocolos y decisiones que se activan automáticamente — sin depender de la motivación o el estado de ánimo de cada día. Se habla de "instalación" porque, al igual que un programa que corre en segundo plano, el criterio instalado funciona en el contexto cotidiano sin requerir un esfuerzo de activación consciente cada vez que se necesita.
Un ejemplo práctico: una profesional que trabaja con IA para redactar informes entiende que debe revisar los datos antes de publicarlos. Pero si solo lo entiende sin tenerlo como protocolo instalado, en los días de alta carga de trabajo omitirá la revisión porque "ya sabe" que debería hacerla. Con el criterio instalado — una checklist de dos minutos antes de publicar cualquier contenido generado con IA — la revisión ocurre independientemente de la presión del día.
La pregunta que más me hacen — y lo que revela
Hace unos meses, una directora de proyectos me escribió después de leer tres ediciones seguidas del newsletter. La pregunta que me hizo fue la misma que escucho con más frecuencia desde que empecé a publicar sobre gobernanza de IA y criterio humano: "Todo lo que dices tiene sentido para mí. Pero, ¿cómo lo instalo? ¿Cómo lo convierto en algo que hago, no solo en algo que entiendo?"
Me quedé varios días con esa frase. Porque no es una pregunta técnica. Es una pregunta sobre la brecha entre la comprensión y el comportamiento — y esa brecha es exactamente donde el piloto automático opera con más comodidad y menos fricción.
Lo que revela la pregunta es algo que ocurre con mucha frecuencia en la relación entre personas y tecnología: tenemos claridad sobre lo que importa, tenemos el mapa, y aun así seguimos haciendo lo mismo que hacíamos antes. Entender que el criterio humano importa cuando usamos IA es el comienzo. Quedarse ahí — solo en el entendimiento — es como comprar las zapatillas y no salir a correr.
Esta edición habla de cómo cerrar esa brecha. Con sistema. Con método. Con pasos concretos que no dependan de que ese día tengas energía o motivación para aplicarlos.
El mapa existe. El protocolo, todavía no.
Lo que observo en las personas que ya leen este newsletter, ya han completado el Semáforo de Riesgo Humano o ya trabajan con alguno de los kits es que no les falta información. Saben que el uso de IA en piloto automático tiene un costo. Saben que delegar decisiones sin criterio se acumula con el tiempo. Saben que la atención, la autonomía y el pensamiento propio son activos que se pueden erosionar de forma gradual e invisible.
Tienen el mapa. Lo que les falta es el protocolo: el conjunto de hábitos, preguntas y decisiones que convierten ese mapa en ruta cotidiana — algo que activas el martes por la mañana, cuando llevas cuatro horas de trabajo y el nivel de energía ya no está para reflexiones profundas sobre ética aplicada.
Esta diferencia entre mapa y protocolo es más relevante de lo que parece a primera vista. Un mapa te dice dónde estás y hacia dónde ir. Un protocolo te dice exactamente qué hacer cuando llegas a esa encrucijada específica, con esa presión específica y en ese contexto específico — sin depender de tu estado de ánimo ese día, sin necesitar que "te acuerdes" de hacerlo.
El mapa orienta. El protocolo protege. Y la protección real solo ocurre cuando el protocolo ya está instalado.
Qué significa instalar el criterio
El concepto central de esta semana — y del método S.E.N.S.E. en general — es lo que llamo la instalación del criterio: el proceso mediante el cual una idea que comprendes intelectualmente se convierte en un sistema que activas sin esfuerzo, porque ya está integrado en tu manera de trabajar, de convivir y de decidir.
La palabra "instalar" es deliberada. Cuando instalas un programa en un dispositivo, no tienes que recordar activarlo cada vez que lo necesitas: funciona en segundo plano, disponible cuando lo precisas. La instalación del criterio funciona de forma similar: cuando está bien establecido, no requiere un esfuerzo consciente adicional para ejercerlo cada vez. Forma parte de cómo operas.
Instalar el criterio tiene tres componentes concretos. El primero es la claridad: saber exactamente cuáles son tus líneas en cada uno de los cinco pilares del método S.E.N.S.E. — seguridad humana, ética aplicada, neuroergonomía, sentido/sociedad y estrategia/autonomía. No de forma abstracta, sino en situaciones reales y específicas de tu vida cotidiana y profesional.
El segundo componente es el protocolo: una respuesta predefinida para las situaciones más comunes donde el piloto automático tiende a operar. No un manual extenso — sino tres o cuatro preguntas que te haces antes de adoptar una herramienta nueva, una decisión delegada o una tarea recurrente con IA.
El tercer componente es la revisión: un momento regular, breve, para verificar que el sistema sigue funcionando y ajustarlo si algo cambió. Porque el entorno de la IA cambia con rapidez, y el protocolo que era útil hace seis meses puede necesitar actualización hoy.
Sin los tres componentes, el criterio existe como comprensión pero no como práctica. Y la comprensión sin práctica no protege nada.
El contraintuitivo que cambia todo
Aquí está el reencuadre que más sorprende a las personas cuando lo escuchan por primera vez: tener un sistema de criterio instalado no te vuelve más lento cuando trabajas con IA. Te vuelve más rápido.
Las personas que operan con criterio activo instalado — que tienen sus protocolos claros para los cinco pilares — usan la IA con más soltura, más velocidad y más confianza. Precisamente porque no tienen que detenerse cada vez a evaluar desde cero si algo está bien o mal: ya lo saben. Ya decidieron. El sistema funciona.
El criterio activo amplifica el uso de la IA. Le da dirección, le da límites protectores y le da propósito. Libera capacidad cognitiva porque elimina la carga de evaluar cada caso individual desde cero. La energía mental que antes gastabas en preguntarte "¿debería usar esto aquí?" ahora la canalizas en la tarea de mayor valor que la herramienta te permite hacer mejor.
Esta es la distinción que más cambia la forma en que las personas se relacionan con el tema: el objetivo de proteger el criterio humano no es usar menos IA o usarla con más precaución. El objetivo es usarla con más claridad, más confianza y más autonomía. Eso es exactamente lo que hace el criterio instalado.
El diagnóstico S.E.N.S.E. aplicado: cinco preguntas para esta semana
Para evaluar si tienes el criterio instalado — o si todavía operas desde el mapa sin el protocolo — el método S.E.N.S.E. propone cinco preguntas concretas, una por cada pilar. Respóndelas con honestidad:
- S — Seguridad humana: ¿Tienes un protocolo para evaluar si una herramienta de IA es segura para ti — para tu mente, tu privacidad y tus datos — antes de adoptarla?
- E — Ética aplicada: ¿Sabes exactamente dónde está tu línea ética con la IA? ¿O la defines caso por caso, sin criterio previo establecido?
- N — Neuroergonomía: ¿Tienes un sistema activo para proteger tu atención profunda en un día de trabajo con IA? ¿O dejas que las herramientas decidan cuándo interrumpirte?
- S — Sentido/Sociedad: ¿Las personas con quienes vives tienen acuerdos claros sobre cómo convivir con la IA en casa? ¿O conviven con ella sin haber decidido cómo?
- E — Estrategia/Autonomía: ¿Operas con un plan consciente para tu relación con la IA, o con intenciones sueltas que nunca llegaste a formalizar en sistema?
El patrón que aparece con más frecuencia en las personas que responden este diagnóstico es consistente: hay respuesta clara para dos o tres pilares. Los demás son puntos ciegos reales. Y los puntos ciegos son exactamente donde el piloto automático opera con mayor comodidad — sin aviso, sin fricción y sin que lo notes.
Identificar los puntos ciegos no es un ejercicio de autocrítica. Es un ejercicio de cartografía: necesitas saber dónde están las grietas antes de poder cerrarlas.
El costo concreto de seguir sin sistema
Cuando el criterio existe como comprensión pero no como protocolo instalado, el costo no suele ser dramático. No hay un momento de ruptura claro, ninguna decisión que claramente "salió mal". El costo es más sutil y, por eso, más difícil de detectar hasta que ya se acumuló.
Se manifiesta en decisiones que no se sienten del todo tuyas — aunque hayas sido tú quien las tomó. En esa sensación vaga de que algo importante se está perdiendo, aunque las cosas funcionen. En la fatiga de tener que evaluar desde cero cada vez que una herramienta nueva aparece, cada vez que un colega te recomienda un proceso diferente, cada vez que el entorno cambia antes de que hayas terminado de adaptarte al cambio anterior.
Con el tiempo, ese costo se vuelve más concreto: en la calidad de las decisiones que tomas con IA como apoyo, en la confianza que tienes en tus propias evaluaciones, en la claridad con la que puedes explicar — a ti mismo, a tu equipo, a tu familia — por qué usas lo que usas y por qué decidiste no usar lo que decidiste no usar.
La investigación sobre comportamiento automático y toma de decisiones señala consistentemente que los sistemas de hábitos — los protocolos instalados — son los que determinan el comportamiento bajo presión, no el conocimiento consciente de lo que debería hacerse. Es decir: en los momentos donde más necesitas el criterio activo, es exactamente cuando más difícil resulta ejercerlo desde el entendimiento solo, sin el apoyo del sistema.
El paso concreto: contar los "no"
El ejercicio de esta semana parte de las cinco preguntas del diagnóstico S.E.N.S.E. que acabas de leer. Antes de cerrar el día, vuelve a ellas y cuenta cuántas respondiste con "no" o "más o menos".
Si acumulaste tres o más: ya tienes el mapa de tus puntos ciegos. El sistema que necesitas instalar tiene nombre y pilares específicos. Eso es una buena noticia — porque lo que tiene nombre se puede resolver.
Si acumulaste uno o dos: también importa. Un solo pilar sin protocolo es suficiente para que el piloto automático opere sin que lo notes — especialmente en los momentos de más presión, cuando el criterio activo es más necesario y el cansancio lo hace más difícil de ejercer desde el entendimiento solo.
Lo que revela este conteo es preciso: no dónde estás fallando, sino dónde todavía no tienes sistema. El criterio existe en ti. El mapa está claro. Lo que falta es el protocolo que lo convierte en comportamiento real, con o sin motivación ese día. Eso es exactamente lo que significa instalar el criterio — y es el trabajo que vale la pena hacer.
¿Por qué no es suficiente entender los riesgos de la IA para cambiar el comportamiento cotidiano?
La psicología del comportamiento establece que el conocimiento consciente y el comportamiento automático operan en sistemas separados. Entender que algo es riesgoso activa el razonamiento deliberado — el "sistema 2" de Kahneman — pero el comportamiento cotidiano bajo presión o fatiga está gobernado por el "sistema 1": los hábitos, rutinas y automatismos. Esto significa que, por más que una persona comprenda los riesgos del uso acrítico de la IA, seguirá operando en piloto automático en los momentos de mayor carga cognitiva — exactamente cuando más necesita el criterio activo.
Un ejemplo documentado: estudios sobre higiene en entornos hospitalarios muestran que los profesionales de salud saben con precisión cuándo y cómo lavarse las manos, pero el cumplimiento real es significativamente menor sin sistemas de recordatorio y protocolos instalados en el flujo de trabajo. El conocimiento sin sistema no produce comportamiento consistente bajo presión.
¿Qué es el método S.E.N.S.E. y cómo protege la autonomía humana frente a la inteligencia artificial?
El método S.E.N.S.E. es un marco humanista creado por Karine Boucher para convivir con la inteligencia artificial sin perder criterio, bienestar ni autonomía. Sus cinco pilares son: Seguridad humana (protección de mente, privacidad e identidad), Ética aplicada (decisiones correctas, justas y responsables en la vida real), Neuroergonomía (impacto de la tecnología en la atención y la capacidad cognitiva), Sentido/Sociedad (implicaciones personales y colectivas a largo plazo) y Estrategia/Autonomía (planificación consciente frente a la reactividad). El método ofrece protocolos concretos para cada pilar — diagnósticos, checklists y sistemas de evaluación — que se pueden aplicar en familia, trabajo y educación sin conocimiento técnico previo.
Una profesional de recursos humanos que aplica el método S.E.N.S.E. antes de integrar una herramienta de IA en procesos de selección puede identificar, antes de la adopción, qué datos se procesan, qué sesgos puede amplificar el sistema y qué protocolos de revisión humana deben mantenerse. El resultado: adopción más segura, más ética y con criterio documentado.
Fuente: Boucher, K. — Método S.E.N.S.E., IAConSentido / karine.ai
¿Cómo afecta el uso de inteligencia artificial en "piloto automático" a la toma de decisiones humana?
El uso de IA en piloto automático — sin criterio activo, sin protocolos de evaluación y sin revisión consciente — produce lo que los investigadores de automatización llaman "complacencia de automatización": la tendencia a aceptar las recomendaciones o resultados de un sistema automatizado sin el nivel de escrutinio que se aplicaría a una fuente humana. Con el tiempo, este patrón erosiona la confianza en el propio juicio, reduce la práctica del razonamiento crítico en contextos donde la IA está presente y genera una dependencia funcional del sistema para tareas que antes se realizaban de forma autónoma.
La OCDE señala en su Marco de Gobernanza de IA que las organizaciones que implementan IA sin protocolos de supervisión humana activa experimentan una degradación progresiva de la capacidad de sus equipos para evaluar, cuestionar y corregir los outputs del sistema — especialmente en contextos donde la IA tiene tasas de error bajas pero las consecuencias de los errores son altas.
¿Qué es la neuroergonomía cognitiva y por qué importa cuando usamos inteligencia artificial todos los días?
La neuroergonomía cognitiva es la disciplina que estudia cómo el diseño de sistemas y entornos tecnológicos afecta la carga cognitiva, la atención, la fatiga mental y la capacidad de toma de decisiones del ser humano. En el contexto de la IA, importa porque las herramientas de inteligencia artificial están diseñadas para maximizar el engagement y la eficiencia del sistema — no necesariamente para proteger la capacidad de pensamiento profundo del usuario. El resultado: mayor velocidad operativa a corto plazo, con una posible reducción de la capacidad de atención sostenida y razonamiento crítico a largo plazo si no se gestionan con protocolos conscientes.
Un ejemplo claro: los trabajadores del conocimiento que utilizan herramientas de generación de texto con IA para su trabajo diario reportan mayor velocidad de producción, pero también mayor dificultad para sostener períodos de escritura o análisis profundo sin apoyo del sistema — un fenómeno conocido como "dependencia cognitiva inducida por automatización".
Fuente: Parasuraman, R. — Neuroergonomics: The Brain at Work, Oxford University Press, 2007
¿Cómo evaluar si estás usando la inteligencia artificial con criterio activo o en modo automático?
El NIST AI Risk Management Framework propone que la supervisión humana significativa de la IA requiere que los usuarios puedan responder afirmativamente a tres preguntas clave: ¿entiendo cómo funciona el sistema que estoy usando?, ¿puedo identificar cuándo el output es incorrecto o inadecuado?, y ¿tengo un protocolo para actuar cuando detecto un problema? Si la respuesta a cualquiera de las tres es negativa o incierta, el usuario está operando en modo reactivo — respondiendo a los outputs del sistema sin el criterio activo que permite evaluar, corregir y redirigir.
El diagnóstico S.E.N.S.E. de IAConSentido traduce este marco en cinco preguntas prácticas — una por pilar — que permiten a cualquier persona, sin conocimiento técnico previo, identificar en cuáles áreas de su relación con la IA ya tiene criterio instalado y en cuáles todavía opera en piloto automático.
Herramientas para instalar el criterio
Si reconoces la brecha entre el mapa y el protocolo en tu relación con la IA, el primer paso concreto es el Semáforo de Riesgo Humano — un diagnóstico gratuito que mapea en cuáles de los cinco pilares S.E.N.S.E. ya tienes criterio instalado y en cuáles todavía hay puntos ciegos. Toma menos de 10 minutos y entrega un mapa personalizado como punto de partida.
Para quienes ya tienen el mapa y quieren el sistema completo, el Curso S.E.N.S.E. ofrece cinco módulos grabados — uno por pilar — cada uno con un protocolo aplicable al terminar. Sin sesiones en vivo. Sin horarios. Con acceso permanente y un workbook de aplicación por módulo. Está diseñado exactamente para cerrar la brecha entre entender y habituar.
Si el contexto es profesional y necesitas instalar criterio para decisiones de equipo, el Kit Liderazgo Consciente ofrece protocolos específicos para líderes que toman decisiones con IA como apoyo — con criterio documentado, revisable y adaptable al contexto de cada organización.
