Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / ChatGPT

¿ChatGPT ya no te responderá preguntas médicas y legales?

Rumores, cambios y realidad detrás de la nueva política de ChatGPT sobre temas médicos y legales.

¿ChatGPT ya no te responderá preguntas médicas y legales?

Durante los últimos días, redes sociales y algunos portales internacionales difundieron la versión de que ChatGPT dejará de ofrecer ayuda médica, legal o financiera en sus próximas actualizaciones. Sin embargo, OpenAI —la empresa detrás del popular asistente de inteligencia artificial— aclaró que esa información ha sido malinterpretada.

La confusión se originó por una actualización en las políticas de uso, pero la realidad es que ChatGPT no dejará de hablar sobre medicina o leyes, sino que mantendrá sus límites actuales: puede ofrecer información general, pero no diagnósticos, recetas ni asesoría legal personalizada.

🔍 ¿De dónde salió el rumor?

El medio The Financial Express publicó recientemente que OpenAI retiraría por completo la capacidad de ChatGPT para dar consejos médicos o legales “por temor a responsabilidades legales”.

Esto desató especulaciones en redes sociales sobre una supuesta “censura” o “bloqueo” del asistente para temas de salud y derecho.

Sin embargo, poco después, OpenAI desmintió esa versión a través de declaraciones recogidas por Moneycontrol, aclarando que no hay ningún cambio radical en el funcionamiento del modelo, sino un refuerzo de las reglas que ya estaban vigentes desde versiones anteriores.

Lo que ChatGPT sí puede hacer

OpenAI explica que su inteligencia artificial seguirá siendo una herramienta educativa y de apoyo para la comprensión de temas complejos, siempre que no sustituya a un profesional certificado.

ChatGPT puede seguir haciendo lo siguiente:

  • Explicar conceptos médicos o legales de manera general.
  • Describir síntomas o procesos para fines informativos, sin emitir diagnósticos.
  • Orientar sobre cuándo es recomendable acudir a un médico, abogado o especialista.
  • Proporcionar información sobre tratamientos, medicamentos o leyes solo con fines educativos.

Por ejemplo, un usuario podrá seguir preguntando qué es la diabetes, cómo funciona un contrato de arrendamiento o cuáles son los síntomas comunes de la gripe, pero no recibirá un diagnóstico médico ni una estrategia legal personalizada.

🚫 Lo que ChatGPT no hará

Las restricciones actualizadas refuerzan una política de larga data:

  • No dará diagnósticos médicos personalizados.
  • No recomendará tratamientos, dosis ni medicamentos.
  • No ofrecerá asesoría legal o financiera individual.
  • No reemplazará la consulta con un profesional con licencia.

Esto busca evitar errores, interpretaciones equivocadas o consecuencias negativas para los usuarios que pudieran basarse en respuestas automatizadas sin la evaluación de un experto humano.

💬 Qué dijo OpenAI oficialmente

En un comunicado citado por Moneycontrol, OpenAI respondió directamente a los rumores:

No es cierto que ChatGPT deje de ofrecer información médica o legal. Solo recordamos que no debe brindar asesoría personalizada sin la supervisión de un profesional autorizado”.

La empresa subrayó que su meta sigue siendo la seguridad y la precisión de la información generada, por lo que continuará ajustando sus filtros para evitar que los modelos entreguen consejos peligrosos o interpretaciones erróneas.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados