Tus conversaciones con IA deberían ser usadas para entrenar más IA?

Hoy Hablamos Sobre

¿Tus conversaciones con IA deberían ser usadas para entrenar más IA?

Reporte de Stanford

escribir prompt gpt

¿Tus conversaciones con IA deberían ser usadas para entrenar más IA?

Millones de personas usan chatbots como ChatGPT, Gemini o Claude para resolver dudas o simplemente conversar. Pero, ¿sabías que esas interacciones suelen ser archivadas... y utilizadas para entrenar los propios modelos?

Un nuevo estudio liderado por Stanford HAI analizó las políticas de privacidad de seis desarrolladores de modelos de lenguaje líderes (OpenAI, Anthropic, Google, Meta, Microsoft y Amazon). El hallazgo es claro: todos recogen y reutilizan tus chats —por defecto— para seguir entrenando sus algoritmos, salvo que tú optes explícitamente por salir.

¿Qué está en juego?

  • Datos personales sensibles como salud, biométricos o fotos pueden ser usados en el entrenamiento.
  • Algunos guardan tus chats indefinidamente. Otros los combinan con datos de tus cuentas en sus otros productos (como búsquedas, compras o redes sociales).
  • Cuatro de las seis plataformas recolectan datos de adolescentes entre 13 y 18 años, sin mecanismos de verificación de edad robustos.

Lo más preocupante

No necesitas hacer nada para que tus conversaciones sean usadas como entrenamiento: los “opt-outs” —cuando existen— están escondidos y desincentivados. Mientras tanto, las cuentas empresariales disfrutan privacidad por defecto.

“El entrenamiento por defecto sin consentimiento explícito crea una ciudadanía digital de segunda clase”, afirma Jennifer King, autora principal del estudio.

¿Y las políticas de privacidad?

Dispersas, técnicas, largas y poco claras. Algunas prácticas clave ni siquiera están en la política general, sino en páginas adicionales difíciles de encontrar.

¿Qué se puede hacer?

  1. Aprobar legislación federal que restrinja claramente el uso de datos personales para IA.
  2. Exigir consentimiento explícito (opt-in) antes de usar chats para entrenamiento.
  3. Excluir por defecto datos sensibles y de menores del entrenamiento.
  4. Eliminar datos tras un periodo limitado y permitir al usuario editar o borrar sus chats.
  5. Fomentar el desarrollo de modelos fundacionales entrenados con datos sintéticos o anonimizados.

Como usuarios, necesitamos exigir transparencia, explicar con claridad lo que significa compartir datos con IA, y construir sistemas con respeto por la dignidad digital.

¿Estás de acuerdo en que tus conversaciones sean usadas para mejorar estos sistemas?

Lee el informe completo en Stanford HAI y considera suscribirte a nuestro boletín sobre gobernanza de IA y privacidad.

👉 Si esto te aporta, te va a encantar mi newsletter "IA con Sentido": lo esencial de IA responsable en español. Para suscribirte.

Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, mira los artículos de  blog  que he redactado para ti.
Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.