IA con Sentido #9: Tu newsletter de IA Responsable en Español – Edición Martes

👋🏻 ¡Hola! Ya somos +2,090 leyendo IA con Sentidopara pasar de titulares a decisiones.

Desde hoy tendrás 2 ediciones (martes y viernes), más cortas y al grano. 

En esta 9.ª edición, verás señales de gobernanza global, impulso LATAM, empresas endureciendo seguridad y el caso Reddit vs Perplexity que reabre el debate de datos y licencias.

Siempre con tu sección “de la noticia a tu plan de acción”, el riesgo de la semana y un recurso clave.

Empecemos 👇

TOP NOTICIAS

🇨🇳 China crea WAICO para gobernanza IA global 
→ Anuncia la World Artificial Intelligence Cooperation Organisation para coordinar normas internacionales.

🇲🇽 México lanza PotencIA MX 
→ Meta, Tec de Monterrey y el gobierno crean la primera aceleradora nacional de IA abierta para impulsar 30 startups sin costo de licencia.

⚖️ Reddit Demanda Perplexity 
→ Acusa a la startup de entrenar su IA con contenido sin licencia y exige compensación económica.

🧠 Anthropic eleva estándares de seguridad 
→ Publica su AI Scaling Policy con nuevas técnicas de auditoría y simulación para escalar IA de forma segura.

¿QUÉ PASÓ EN LA HISPANÓSFERA?

🇨🇴 Colombia impulsa alfabetización crítica ante IA 
→ La UNESCO lanza Minds Over AI durante la Semana Global MIL para fortalecer educación mediática frente a manipulación algorítmica.

🧩 Adigital y BID Lab presentan IAméricas México 
→ Programa para promover la IA ética y responsable, con meta de impactar 350 000 mujeres y 1 500 organizaciones hacia 2027.

🔬 Científicos españoles exigen transparencia IA 
→ La COSCE pide regular la IA sin sustituir el juicio clínico humano, priorizando ética, evidencia y seguridad.

⚖️ ICAM publica guía IA para abogacía 
→ El colegio madrileño lanza la primera guía práctica adaptada al AI Act europeo para uso responsable de IA en despachos.

¿QUÉ MÁS PASÓ EN EL MUNDO?

🏥 OMS y Corea impulsan IA segura en salud 
→ En AIRIS 2025, reguladores y países acuerdan estrategia global para una IA ética y equitativa en atención sanitaria.

🍁 Canadá arriesga soberanía de datos en salud 
→ El retraso del AI Data Act expone información sensible e indígena ante una IA sanitaria sin protección legal.

🇦🇪 Dubái lanza plan IA con meta de 30 unicornios 
→ El jeque Hamdan presenta plataforma para crear 3,000 empleos y posicionar Dubái como hub tecnológico global.

💰 Banca evalúa riesgos por IA “agente” 
→ El sector financiero plantea nuevos marcos de gobernanza para mitigar riesgos de sistemas autónomos en operaciones.

☁️ Organización Meteorológica adopta IA 
→ La WMO aplica IA/ML en pronósticos y alertas sin reemplazar el juicio humano, buscando cobertura global y seguridad climática.

🇯🇵 Japón publica AI Basic Plan 
→ Presenta políticas para una IA segura y equilibrada entre innovación y riesgo, alineada con estándares internacionales.

🇦🇪 Abu Dhabi acogerá Cumbre Global de IA 
→ Reunirá a líderes gubernamentales y empresariales para debatir gobernanza responsable y acceso inclusivo.

🇮🇸 Islandia aprueba Plan Nacional de IA 
→ Adopta 25 medidas para innovación, educación y gobernanza ética alineada con la UE.

🇻🇳 Vietnam acelera IA con seguridad 
→ Fortalece transparencia y responsabilidad mientras impulsa su industria tecnológica.

🇰🇪 Kenia impulsa resolución global sobre IA ética 
→ Propone en la ONU una IA segura y sostenible al servicio de las personas y el planeta.

¿Y A NIVEL EMPRESARIAL?

🏛️ PROA Comunicación lanza IA ética en España 
→ Crea junto a BeAI el primer modelo de IA confidencial para gestión de reputación empresarial.

🌍 ETHIS – plataforma global de gobernanza humana en IA 
→ Lanzada en SF Tech Week, promueve control humano directo y participación ciudadana en regulación IA.

🧑‍💻 Microsoft presenta Copilot centrado en humanos 
→ Su nueva versión añade 12 funciones para personalizar IA y mejorar colaboración y bienestar laboral.

ORGANIZACIONES Y ESTÁNDARES

🌍 AI gobernanza global del WEF
→ El Foro Económico Mundial destacó el índice AGILE 2025 que mide la capacidad regulatoria de IA en 40 países revelando brechas clave.

DE LA NOTICIA A TU PLAN DE ACCIÓN

Te convierto estas noticias en acciones concretas que puedes iniciar desde hoy para fortalecer tu gobernanza de IA. Elige 3 acciones para tener impacto en 30 días:

🟪 Comité de IA → crea un comité cross-funcional con poder de veto y agenda quincenal para riesgos, roadmap y métricas.
🟪 Política y capacitación BYOAI → publica guía “trae tu propia IA” y forma a todo el personal en usos permitidos, privacidad y trazabilidad.
🟪 Ética y DD. HH. → incorpora evaluación de impacto en derechos y no discriminación en el inicio de cada proyecto y al cierre
🟪 Proveedores y salida → incluye cláusulas de auditoría, portabilidad de datos/modelos y plan de salida probado en todos los contratos.
🟪 Ecosistema y voz pública → participa en consultas regulatorias y firma convenios con academia y sociedad civil para pruebas y validación independientes.

LECTURAS RELEVANTES

📄 Te recomiendo leer este reporte que resume muy bien el avance de marcos regulatorios globales, especial enfoque en transparencia y categorización de riesgos. Se destaca el impulso del EU AI Act y la cooperación internacional.

✍🏼 Mis apuntes :

Me llevo la importancia de priorizar la transparencia para construir confianza y responsabilidad. También adoptar frameworks flexibles y adaptativos para responder rápidamente a cambios.

RIESGO DE LA SEMANA

🔴 Desactívalo

Imagina que un analista copia en su chat preferido un extracto de un contrato “solo para resumirlo rápido”. Semanas después, ese mismo patrón de cláusulas empieza a “aparecer” en respuestas a otros usuarios porque el proveedor retuvo y usó esas consultas para entrenar su modelo. No hubo fuga intencional, pero sí exposición innecesaria: datos sensibles en manos de un sistema que no controlas, trazas difíciles de borrar y posibles choques con NDAs o privacidad. Hacer opt-out de retención corta ese hilo: tus búsquedas no alimentan el modelo, reduces superficie de riesgo legal y técnico y proteges el know-how de tu equipo.

👉🏼 Qué haría en tu lugar: 

🟩 Desactiva “usar mis datos para entrenar/retención” en Ajustes → Privacidad del proveedor que uses.
🟩 Decláralo en tu política BYOAI
🟩 Si un servicio no ofrece opt-out, trátalo como público: nada de PII, secretos, código o contratos.

¿Necesitas ayuda?
Sientes que no sabes como hacerlo, sin problema, creamos un plan juntos.

RECURSOS ÚTILES

🔴 La base de datos de incidentes de IA

La AI Incident Database (AIID) recopila, organiza y comparte reportes de incidentes reales causados por sistemas de inteligencia artificial para ayudar a investigadores, desarrolladores y responsables de políticas a prevenir errores repetidos y mejorar la seguridad de la IA.

👉🏼 Cómo lo uso yo: transformo casos reales en controles, tests y playbooks operativos para reducir riesgo y acelerar una IA segura en tu organización.

HUMOR RESPONSABLE

¡Es todo por hoy! 

¿Qué tema quieres que investigue el viernes?

Si esto te ayuda, reenvíalo a tu equipo y respóndeme con tu feedback (me sirve mucho). Nos leemos el viernes 💌

Con gratitud y té en mano ☕,

Karine

Mamá, apasionada con la IA Responsable a beneficio de las personas y también AI Governance Consultant & WiAIG Mexico Leader
LinkedIninfo@karine.aiwww.karine.ai

Todas las fuentes fueron verificadas y con fecha; si ves un error, respóndeme y lo corrijo en la versión web.

Leave a Comment