Hoy Hablamos Sobre
¿Por qué la gobernanza de la IA no es opcional para los departamentos legales internos?
la importancia de la Gobernanza de la IA

Gobernar la IA desde dentro: por qué los equipos legales no pueden ignorar esta responsabilidad
¿En tu organización ya se gobierna el uso de la inteligencia artificial? Aunque la respuesta sea “no”, es probable que la IA ya se esté usando… sin estructura, sin control y sin rendición de cuentas.
Ali Dibbenhall, directora jurídica para Asia-Pacífico de LexisNexis, lo deja claro: la gobernanza de la IA no es opcional para los equipos in-house. No es una cuestión de tecnología, sino de cultura organizacional, riesgos legales y deber de cuidado.
¿Por qué empezar ya, incluso si no usas IA?
Porque alguien en tu empresa probablemente sí lo hace: generando una diapositiva con IA generativa, editando texto con un asistente automatizado o refinando un mensaje interno con un modelo gratuito.
"Puede que no lo estemos hablando… pero hay alguien usándola" — Ali Dibbenhall
Según Dibbenhall, incluso si el uso de IA todavía no ha sido promovido de forma oficial, "hay alguien en tu organización que ya la está usando. Puede ser para hacer sus presentaciones un poco más llamativas, o simplemente para escribir una parte de una evaluación de desempeño".
Oportunidades para el área legal interna
- Guiar el diálogo sobre riesgos reputacionales y cumplimiento normativo
- Diseñar entornos seguros para el testeo de herramientas
- Anticipar el enfoque de regulaciones como el AI Act de la UE o marcos como el NIST AI RMF
"Lo importante no es solo controlar, sino permitir que las personas experimenten con IA de forma segura", señala Dibbenhall. “Estamos tratando de crear un espacio seguro para que las personas puedan probar estas herramientas y descubrir cuál se adapta mejor a sus necesidades”.
Riesgos de no tener gobierno de IA
- Uso de herramientas sin validación ni respaldo jurídico
- Filtración no intencionada de datos confidenciales
- Falta de trazabilidad en decisiones apoyadas por algoritmos
Y más allá del control, Dibbenhall insiste en que experimentar es clave no solo para evaluar herramientas, sino también para despertar la curiosidad y motivación del equipo legal: “Ver lo que estas cosas pueden hacer es emocionante, motiva y genera interés en explorar el potencial de la tecnología”.
¿Por dónde empezar?
- Diagnostica quién está usando IA, con qué fines y con qué herramientas
- Define una política mínima adaptada al nivel real de adopción
- Crea un espacio seguro para experimentar. No se trata de prohibir, sino de enmarcar
Dibbenhall lo resume así: “Incluso si crees que no estás usando IA, probablemente necesites algo. Tal vez menos detallado o estructurado, pero un marco mínimo es esencial”.
El equipo legal ya no puede estar al margen
No tener política de IA equivale a tener una política que ignora la realidad. La gobernanza empieza reconociendo lo que ya ocurre y asumiendo un rol activo desde lo jurídico, lo ético y lo estratégico.
¿Está tu equipo preparado para liderar esta conversación interna?
Lee la entrevista completa a Ali Dibbenhall, encargada de LexisNexis’s Asia-Pacific.
¿Te interesa recibir ideas concretas y casos sobre políticas de IA en el sector público y privado? Suscríbete a mi boletín sobre inteligencia artificial responsable.
👉 Si esto te aporta, te va a encantar mi newsletter "IA con Sentido": lo esencial de IA responsable en español. Para suscribirte.
Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, mira los artículos de blog que he redactado para ti.
Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.
