¿Puede ChatGPT seguir respondiendo preguntas legales o médicas? Sí, pero con condiciones
En los últimos días, circularon en redes sociales afirmaciones de que OpenAI habría prohibido a ChatGPT ofrecer consejos médicos o legales. Pero Karan Singhal, responsable de IA en salud en OpenAI, fue claro: esa política no ha cambiado.
Desde sus inicios, ChatGPT incluye una advertencia: no sustituye la opinión profesional. Lo que ocurrió recientemente fue una actualización de políticas para unificar reglas entre productos (ChatGPT, API, etc.), pero no implica restricciones nuevas sobre estos usos.
¿ChatGPT realmente prohibió ofrecer asesoramiento médico o legal?
No. Según la verificación publicada por The Verge, OpenAI no ha implementado ninguna prohibición para que ChatGPT brinde información general sobre temas médicos o legales. Lo que sí mantiene es su política de uso responsable: el modelo puede explicar conceptos o leyes, pero no debe sustituir el diagnóstico de un médico ni el consejo de un abogado. El objetivo es proteger al usuario frente a decisiones críticas basadas en información generada por IA.
Ejemplo: Un paciente puede usar ChatGPT para entender qué es la hipertensión o cómo funciona un medicamento, pero la herramienta debe aclarar que el tratamiento debe ser prescrito por un profesional de la salud. Del mismo modo, puede explicar los elementos de un contrato sin ofrecer asesoría jurídica personalizada.
Fuente: The Verge – “No, ChatGPT hasn’t added a ban on giving legal and health advice” (Emma Roth, 2025)
¿Qué dice la política actualizada?
La nueva versión prohíbe el “uso para brindar consejos personalizados que requieren licencia, como asesoramiento legal o médico, sin la participación adecuada de profesionales habilitados”.
Esto ya estaba contemplado en versiones anteriores, con énfasis en:
- Prevenir daños al bienestar o los derechos de otras personas
- Exigir revisión profesional si se brinda orientación sensible
- Asegurar que se divulgue el uso de IA y sus limitaciones
Un principio clave en la gobernanza de IA: transparencia y límites de uso
Este caso reabre un debate importante: ¿cómo comunicar los alcances y límites del uso de modelos generativos cuando se trata de dominios sensibles? La confusión de estos días muestra que la gobernanza algorítmica no es solo una cuestión técnica, sino también comunicativa y ética.
Reflexión desde la IA Responsable
Una IA bien diseñada y bien gobernada informa, no reemplaza. Complementa criterios humanos, no los sustituye. Como destaca la OCDE, los sistemas de IA deben ser robustos, confiables y explicables, especialmente cuando hay salud o derechos en juego. Y su implementación debe considerar siempre la rendición de cuentas y la supervisión humana.
¿Qué implica esto para profesionales y plataformas?
- Las organizaciones deben informar claramente cómo integran IA en servicios de salud o legal
- No basta con incluir disclaimers genéricos: se necesita trazabilidad del proceso de revisión y validación
- El riesgo reputacional y legal de no hacerlo puede ser alto, sobre todo si los usuarios interpretan mal el rol de la IA
En definitiva, el problema no fue técnico, sino comunicacional y de expectativas. ¿Está tu organización preparada para explicitar ante su audiencia cuándo y cómo usa sistemas de IA en dominios críticos?
¿Se puede hacer mejor?
La gestión del riesgo algorítmico requiere más educación pública, mejores interfaces, y políticas internas más claras. Como repite Virginia Dignum, “la confianza no se construye con disclaimers, sino con prácticas transparentes".
¿Qué mecanismos internos tiene tu equipo para detectar y corregir posibles malentendidos sobre el uso de IA? ¿Cómo evitas que lo que es un asistente se perciba como un reemplazo?
La IA no reemplaza el criterio profesional. Pero sí cuestiona cómo comunicamos, delegamos y confiamos en sistemas automatizados. Y eso también debería formar parte de la agenda pública.
¿Qué opinas tú?
¿ChatGPT prohíbe dar consejos legales o médicos?
No. Según OpenAI, ChatGPT no ha implementado una prohibición para ofrecer información legal o médica. Lo que se mantiene es una política constante: el modelo no debe sustituir el juicio de profesionales con licencia. Puede ayudar a las personas a comprender conceptos, leyes o síntomas generales, pero no reemplaza la orientación personalizada de un experto.
Ejemplo: Un usuario puede pedir a ChatGPT una explicación sobre qué es un contrato de confidencialidad o los síntomas generales de la diabetes, pero la herramienta no debe redactar un contrato oficial ni ofrecer diagnóstico médico.
Fuente: The Verge – “No, ChatGPT hasn’t added a ban on giving legal and health advice” (Emma Roth, 2025)
¿Por qué OpenAI mantiene límites en asesorías legales y médicas?
OpenAI mantiene estos límites para proteger la seguridad pública y evitar que los usuarios reciban consejos que podrían afectar su bienestar o derechos. Los modelos de lenguaje no poseen certificaciones profesionales y pueden generar errores que, en contextos médicos o jurídicos, tendrían consecuencias graves. La restricción busca que la IA se use como apoyo informativo y no como fuente de decisiones críticas.
Ejemplo: En el sector salud, un chatbot puede resumir artículos científicos sobre hipertensión, pero el diagnóstico y tratamiento deben provenir de un médico. En derecho, puede explicar la diferencia entre demanda y querella, sin sustituir a un abogado.
Fuente: OpenAI Usage Policies (2025)
¿Qué cambió realmente en la política de uso de OpenAI?
La actualización del 29 de octubre de 2025 unificó las tres políticas previas (ChatGPT, API y general) en un solo documento. Aunque el lenguaje se simplificó, el contenido esencial sigue igual: se prohíbe ofrecer asesorías que requieran licencia profesional sin revisión humana. El cambio busca coherencia y transparencia, no una limitación adicional.
Ejemplo: Antes, cada producto tenía su propio reglamento. Ahora, todos los servicios de OpenAI —incluido ChatGPT— siguen el mismo estándar de seguridad y responsabilidad.
¿Cuál es el rol responsable de la IA en la interpretación de información médica o legal?
La IA puede facilitar la comprensión de temas complejos, traducir lenguaje técnico y mejorar el acceso a la información. Sin embargo, su rol debe ser educativo y de apoyo, no prescriptivo. La gobernanza responsable exige que las organizaciones informen claramente a los usuarios sobre los límites de la IA y promuevan la verificación humana.
Ejemplo: Un gobierno que implemente chatbots de orientación ciudadana puede usar IA para explicar derechos laborales o servicios médicos, pero debe redirigir al usuario a instituciones certificadas para recibir asistencia profesional.
Fuente: UNESCO – Recomendación sobre la Ética de la IA (2021)
Quieres aprender más sobre la IA Responsable y Gobernanza de la IA, mira los artículos de blog que he redactado para ti.
✅ Suscríbete a mi newsletter para recibir cada semana lo más relevante de la IA Responsable
Para cualquier duda que puedas tener, me puedes mandarme email a info@karine.ai, con mucho gusto te contestaré.
#IaResponsable #GobernanzaAlgorítmica #LegalTech #HealthTech #EthicalAI #PolíticasDigitales
