Hoy hablamos de: La "niebla de IA" — el fenómeno que hace más difícil planificar el futuro y lo que revela sobre el criterio humano en tiempos de aceleración tecnológica.
Cuando la IA borra el horizonte: lo que la AI fog revela sobre el criterio humano y el arte de decidir
Hay un nuevo tipo de incertidumbre que está afectando la forma en que planificamos nuestra vida. Se llama niebla de IA. Entender de dónde viene — y qué dice sobre nosotros — ayuda a responder mejor.
¿Qué es la "niebla de IA" (AI fog) y por qué afecta la toma de decisiones personales y profesionales?
La "niebla de IA" (AI fog) es un término acuñado por el profesor Toby Stuart de la Universidad de California Berkeley-Haas y difundido por Harvard Business Review para describir la creciente dificultad de tomar decisiones a largo plazo en un entorno donde la inteligencia artificial está transformando las condiciones de vida y trabajo más rápido de lo que las personas podemos planificar. La metáfora es precisa: la niebla no impide actuar, pero borra los puntos de referencia que normalmente guían el camino.
Ejemplo práctico: Una persona de 22 años que considera estudiar una carrera de 4 años en análisis de datos enfrenta hoy una pregunta que sus padres nunca tuvieron que hacerse: ¿esta inversión de tiempo y dinero seguirá siendo relevante cuando termine? La misma pregunta aplica a quienes consideran una hipoteca en una ciudad cuya economía laboral podría transformarse radicalmente en cinco años. La AI fog no invita al pesimismo — invita a replantear el marco con el que se evalúa cualquier compromiso a largo plazo.
Qué pasó
En abril de 2026, Harvard Business Review publicó un análisis del profesor Toby Stuart, de UC Berkeley-Haas, en el que introduce el concepto de AI fog: la niebla de IA. La premisa es directa. Toda planificación a largo plazo — estudiar una carrera universitaria, firmar una hipoteca a 30 años, invertir décadas en escalar una jerarquía corporativa — descansa sobre un supuesto implícito: que el mañana será una versión ligeramente mejorada del hoy. Que las reglas del juego cambiarán, pero dentro de parámetros reconocibles.
La inteligencia artificial está rompiendo ese supuesto. Los tiempos de cambio se comprimen. Los roles que hoy son aspiracionales pueden ser automatizados antes de que alguien los alcance. Los títulos universitarios pueden perder relevancia antes de que quienes los estudian se gradúen. Ante este escenario, el artículo sugiere una respuesta estratégica: cambiar la mentalidad de planificación a largo plazo por una orientada a la opcionalidad. Desarrollar habilidades con frecuencia, mantenerse abierto a pivotar y estar mentalmente preparado para abandonar planes en los que ya se ha invertido mucho.
Es un diagnóstico relevante. Y también merece ser leído con cuidado, porque la respuesta importa tanto como el problema.
Lo que este caso nos está mostrando
La AI fog como concepto captura algo que muchas personas ya sienten pero no saben nombrar: una especie de parálisis estratégica mezclada con ansiedad de fondo. ¿Vale la pena comprometerse con esto si puede quedar obsoleto? ¿Tiene sentido planificar a cinco años si el mapa puede cambiar antes?
Lo que este fenómeno revela, sin embargo, va más allá del problema de la planificación. Muestra que la velocidad a la que se despliega la IA en el mundo laboral, educativo y económico está superando la capacidad de las personas, las instituciones y las organizaciones de adaptarse con criterio. Y esa brecha — entre la velocidad del cambio tecnológico y la capacidad humana de procesarlo — tiene un costo que no siempre aparece en los artículos sobre productividad o futuro del trabajo.
El costo es cognitivo y emocional: más carga mental, más decisiones bajo incertidumbre, más tendencia a la parálisis o, en el otro extremo, a la reacción impulsiva. Y también hay un costo social: la AI fog no afecta a todos por igual. Quienes tienen más recursos pueden "optimizar por opcionalidad" con relativa comodidad. Quienes tienen menos margen — una deuda educativa, una familia que depende de un ingreso estable, menos acceso a reskilling continuo — enfrentan la niebla desde un lugar mucho más vulnerable.
La discusión que abre este concepto no es solo estratégica. Es una discusión sobre justicia, sobre el ritmo al que la tecnología puede transformar la vida de las personas sin que las instituciones y los marcos de protección humana mantengan el paso.
Mirarlo con el lente S.E.N.S.E.
Seguridad Humana — ¿Qué pudo afectar a las personas?
La incertidumbre extrema sobre el futuro genera una forma específica de inseguridad psicológica: la incapacidad de comprometerse con decisiones fundamentales de vida — educación, vivienda, carrera — sin sentir que se está apostando a ciegas. Este tipo de inseguridad tiene efectos documentados sobre el bienestar mental: ansiedad crónica, aversión al riesgo paralizante o, en el polo opuesto, decisiones impulsivas motivadas por el miedo a "quedarse atrás". La seguridad humana en este caso no está amenazada por un fallo técnico, sino por la velocidad de un cambio que no dejó tiempo para prepararse.
Ética Aplicada — ¿Dónde aparece la responsabilidad?
Si la IA hace que una carrera universitaria quede obsoleta antes de que alguien la termine, ¿quién responde? ¿Las empresas que desplegaron esa tecnología a una velocidad que el mercado laboral no pudo absorber? ¿Las universidades que siguieron vendiendo títulos sin actualizar sus propuestas? ¿Los gobiernos que no regularon el ritmo del despliegue con criterios de impacto humano? La AI fog pone en el centro una pregunta ética urgente: cuando la velocidad tecnológica supera los marcos de protección social, el costo de esa brecha no puede recaer únicamente en los individuos.
Neuroergonomía — ¿Cómo pudo fallar la relación humano-máquina?
El cerebro humano no está diseñado para mantener incertidumbre radical de forma sostenida. La planificación a largo plazo es, entre otras cosas, un mecanismo de regulación cognitiva y emocional: tener un horizonte claro reduce la carga de decisiones diarias y protege la energía mental. Cuando ese horizonte desaparece — cuando "los próximos cinco años" se vuelven impredecibles — el sistema nervioso lo interpreta como amenaza permanente. La propuesta de "optimizar por opcionalidad" es racionalmente válida pero cognitivamente costosa: mantener múltiples caminos abiertos requiere más procesamiento mental, más carga de evaluación, no menos.
Sentido / Sociedad — ¿Por qué importa más allá de esta empresa o evento?
La AI fog no es un problema individual de planificación. Es un síntoma de una transformación estructural que aún no tiene respuestas sistémicas claras. Si cohortes enteras de personas no pueden invertir con confianza en educación, vivienda o trayectorias profesionales, los efectos acumulados sobre la cohesión social, la desigualdad y la confianza en las instituciones son profundos. La pregunta que la sociedad necesita hacerse no es solo "¿cómo me adapto?" — es "¿qué estructuras de protección necesitamos construir para que la adaptación no dependa únicamente de la capacidad individual de cada persona?"
Estrategia / Autonomía — ¿Qué deberíamos aprender para actuar mejor?
La respuesta del artículo de HBR — desarrollar opcionalidad — es un punto de partida útil. Pero la autonomía real no se construye solo acumulando opciones abiertas. Se construye desarrollando el criterio para evaluar cuál elegir cuando llega el momento. La diferencia entre reaccionar al cambio y navegarlo con agencia está en la solidez del marco de decisión propio. Eso incluye saber qué valores no son negociables, qué tipo de vida se quiere construir, y qué herramientas protegen el pensamiento propio frente a la presión del entorno. La opcionalidad sin criterio es solo más ruido.
La lectura neurohumanista
La AI fog es, en el fondo, un caso de erosión del criterio colectivo. Cuando el entorno cambia tan rápido que las personas no pueden anclar sus decisiones en marcos estables, la tendencia natural es buscar señales externas — tendencias, predicciones, "lo que dicen los expertos sobre el futuro" — en lugar de confiar en la propia evaluación. Eso es exactamente lo contrario de lo que la autonomía cognitiva necesita. El neurohumanismo parte de una premisa que este fenómeno vuelve urgente: la tecnología debe proteger las condiciones que permiten a las personas seguir siendo responsables, conscientes y libres en sus decisiones. Cuando la velocidad del cambio tecnológico erosiona esas condiciones, no es solo un problema de planificación estratégica. Es un problema de humanidad.
Preguntas que vale la pena hacerse
- ¿Mis decisiones de los últimos meses sobre carrera, educación o trabajo estuvieron guiadas por mis valores y criterios propios, o principalmente por el miedo a quedarme atrás?
- ¿Qué compromisos a largo plazo tengo actualmente que podrían necesitar ser revisados a la luz de los cambios en mi sector? ¿Con qué criterio los revisaría?
- ¿Las personas a mi cargo — hijos, estudiantes, colaboradores — tienen acceso a marcos que les ayuden a tomar decisiones con más calma y criterio en este entorno de alta incertidumbre?
- ¿Mi organización está desplegando IA a una velocidad que sus propios empleados pueden procesar con autonomía, o está generando su propia versión de AI fog internamente?
- Si el futuro es menos predecible, ¿qué es lo que sí permanece estable y puede servir como ancla para las decisiones importantes: mis valores, mis relaciones, mi forma de pensar?
Lo que podemos aplicar desde hoy
- Distinguir entre incertidumbre sobre el contexto e incertidumbre sobre los valores. El entorno puede ser impredecible; lo que quieres construir y para qué puede ser bastante claro. Separar esas dos capas reduce la carga cognitiva y abre espacio para decisiones más fundamentadas.
- Actualizar los marcos de decisión, no solo las habilidades. El reskilling continuo es valioso, pero sin un marco de criterio claro, solo genera más opciones sin más claridad. Invertir en aprender a evaluar — no solo en aprender herramientas — es la habilidad más duradera.
- Reconocer la AI fog como fenómeno colectivo, no como fallo personal. Si sientes que no puedes planificar tu futuro con claridad, no es falta de visión estratégica individual. Es una respuesta razonable a un entorno que cambió más rápido de lo que los marcos de referencia colectivos pudieron seguir. Esa conciencia protege.
- En organizaciones: medir el impacto de la velocidad de adopción de IA sobre las personas. Antes de desplegar una nueva herramienta de IA, vale preguntarse: ¿a qué velocidad puede esta persona o este equipo integrar este cambio sin perder criterio propio? La gobernanza empieza ahí.
- Usar la opcionalidad como estrategia de adaptación, pero anclarla en criterio. Mantener opciones abiertas tiene sentido en entornos de alta incertidumbre. La clave es no confundir la flexibilidad táctica con la ausencia de valores de fondo. Los mejores pivots no son los más rápidos — son los más conscientes.
Una idea para recordar
Cuando el horizonte se nubla, la pregunta más útil no es ¿hacia dónde va el mundo?, sino ¿con qué criterio quiero navegar este mundo, sea cual sea el camino que tome?
¿Cómo afecta la incertidumbre provocada por la IA a la salud mental y el bienestar cognitivo?
La incertidumbre sostenida activa el sistema de respuesta al estrés del cerebro de forma crónica. Cuando las personas no pueden construir modelos fiables del futuro — porque el entorno cambia más rápido de lo que el aprendizaje puede seguir — el resultado es ansiedad de anticipación, fatiga en la toma de decisiones y, en algunos casos, parálisis estratégica. La AI fog descrita por HBR tiene un correlato directo en la experiencia subjetiva: la sensación de que cualquier compromiso a largo plazo es un riesgo inaceptable.
Ejemplo práctico: Investigaciones en psicología organizacional muestran que trabajadores en sectores de alta transformación digital reportan niveles más elevados de "ambigüedad de rol" — la incertidumbre sobre qué se espera de ellos — lo que está consistentemente asociado con mayor agotamiento emocional y menor compromiso. Una empresa de servicios financieros que automatizó procesos sin comunicar claramente cómo evolucionarían los roles de su equipo experimentó un incremento del 34% en rotación voluntaria en el año siguiente.
Fuente: Journal of Occupational Health Psychology — American Psychological Association
¿Qué es el sesgo de automatización y cómo puede llevar a decisiones equivocadas en contextos de alta incertidumbre?
El sesgo de automatización es la tendencia humana a confiar en sistemas automatizados más de lo que los datos disponibles justificarían, incluso cuando hay señales de que el sistema podría estar equivocado. En el contexto de la AI fog, este sesgo puede manifestarse de forma inversa: ante la incertidumbre sobre el futuro, las personas delegan cada vez más su planificación y evaluación a herramientas de IA — modelos de predicción del mercado laboral, asistentes que sugieren qué habilidades desarrollar, algoritmos que recomiendan rutas educativas — sin cuestionar los supuestos que alimentan esas predicciones.
Ejemplo práctico: Varias plataformas de educación corporativa utilizan IA para recomendar rutas de aprendizaje "a prueba de futuro". Sin embargo, estas recomendaciones están basadas en datos históricos de demanda de habilidades, que pueden quedar obsoletos en meses. Un profesional que delegó su plan de desarrollo a una de estas plataformas sin revisión crítica podría terminar invirtiendo tiempo en habilidades cuya demanda ya cayó.
Fuente: NIST AI Risk Management Framework — National Institute of Standards and Technology, 2023
¿Qué plantea el método S.E.N.S.E. para tomar decisiones con criterio en entornos de alta incertidumbre tecnológica?
El método S.E.N.S.E., creado por Karine Boucher, propone un marco de cinco pilares — Seguridad Humana, Ética Aplicada, Neuroergonomía, Sentido/Sociedad y Estrategia/Autonomía — para evaluar cualquier decisión relacionada con la IA desde una perspectiva centrada en el bienestar humano. Frente a la AI fog, el método ofrece un enfoque específico: en lugar de intentar predecir el futuro, propone fortalecer el criterio con el que se evalúan las opciones cuando lleguen. La estrategia del pilar E (Estrategia/Autonomía) no busca eliminar la incertidumbre, sino construir la capacidad interna de responder a ella con agencia y claridad.
Ejemplo práctico: Una directora de recursos humanos que aplicó el filtro S.E.N.S.E. antes de adoptar un sistema de IA para evaluaciones de desempeño identificó que el sistema generaba carga cognitiva adicional en los managers — más reuniones para interpretar los resultados del algoritmo — en lugar de reducirla. Eso corresponde al pilar N (Neuroergonomía). La decisión fue rediseñar el proceso antes de desplegar la herramienta, no después.
Fuente: Karine Boucher — Método S.E.N.S.E., IAConSentido, karine.ai, 2025
¿Cómo pueden las organizaciones proteger a sus equipos de la ansiedad generada por la transformación de la IA?
La ansiedad organizacional frente a la IA tiene una causa estructural identificable: la velocidad de adopción supera la capacidad de los equipos de integrar el cambio con comprensión y agencia propias. Las organizaciones que han gestionado mejor esta transición comparten un patrón: comunicación clara sobre qué roles cambian y cómo, espacio real para procesar la incertidumbre (no solo anuncios de "emocionantes cambios"), y métricas de bienestar cognitivo que van más allá de la productividad. La gobernanza de la IA que protege a los equipos no empieza en los comités de ética — empieza en la pregunta de si la persona que usará esta herramienta tiene el contexto, el tiempo y el criterio para hacerlo bien.
Ejemplo práctico: Una empresa de servicios profesionales en Europa implementó un protocolo de "absorción progresiva de IA" que incluía períodos de consolidación antes de introducir nuevas herramientas. El resultado fue una adopción más lenta en papel, pero con métricas de uso efectivo y satisfacción laboral significativamente más altas que las de sus competidores que optaron por adopciones masivas y simultáneas.
Fuente: OECD — AI in Work, Innovation, Productivity and Skills, 2024
¿Qué significa "optimizar por opcionalidad" y cuáles son sus límites como estrategia ante la incertidumbre de la IA?
Optimizar por opcionalidad significa diseñar las decisiones personales y profesionales de modo que preserven la mayor cantidad posible de caminos futuros abiertos, en lugar de comprometerse de forma irreversible con una trayectoria única. Es la estrategia que HBR propone como respuesta a la AI fog: adquirir habilidades transferibles, mantenerse dispuesto a pivotar, no sobreinvertir en planes que el entorno podría volver obsoletos. Tiene valor real en contextos de alta incertidumbre. Sus límites aparecen cuando se convierte en la única estrategia disponible: la opcionalidad sin anclaje en valores y criterios propios puede generar su propio tipo de parálisis — demasiados caminos abiertos, ninguno comprometido. Además, no todas las personas tienen el mismo acceso a la opcionalidad: requiere recursos, redes, tiempo y estabilidad que no están distribuidos equitativamente.
Ejemplo práctico: Estudios sobre trayectorias de jóvenes profesionales en mercados laborales de alta incertidumbre muestran que los que reportan mayor bienestar no son necesariamente los que tienen más opciones abiertas, sino los que tienen mayor claridad sobre qué criterios usarán para decidir entre ellas. La claridad de valores funciona como ancla cognitiva en entornos cambiantes.
Herramientas para recuperar tu criterio
Si reconoces en tu vida o en tu equipo la sensación de decidir a ciegas — sin un marco claro, con más reacción que dirección — el Kit Pensamiento Propio con la IA ofrece un sistema concreto para recuperar la autoría de tus elecciones en un entorno de alta incertidumbre tecnológica. Con el método S.E.N.S.E. aplicado a decisiones reales. Con calma. Sin drama técnico.
