ChatGPT Health bajo la lupa: investigan por qué no detecta emergencias médicas ni alertas de riesgo suicida
Un estudio independiente advierte que la versión de inteligencia artificial especializada en salud falla en reconocer situaciones de emergencia y no siempre identifica señales de riesgo como ideación autolesiva, lo que podría generar una falsa sensación de seguridad para quienes buscan orientación médica en momentos críticos.
:format(webp):quality(40)/https://elmarplatensecdn.eleco.com.ar/media/2026/03/chat_gpt_health.jpeg)
Especialistas de la Icahn School of Medicine at Mount Sinai en Nueva York analizaron ChatGPT Health, una variante de la inteligencia artificial de OpenAI diseñada para responder consultas relacionadas con salud y bienestar, y advirtieron que el sistema presenta graves limitaciones en situaciones de urgencia.
Según el informe de los investigadores, aunque la herramienta se desempeña razonablemente en escenarios típicos como reacciones alérgicas o accidentes cerebrovasculares, no logra reconocer eficazmente emergencias más complejas ni ciertas señales de alerta, como pensamientos suicidas expresados por usuarios. En más de la mitad de los casos clínicos severos simulados, ChatGPT Health no indicó a los usuarios que buscaran atención médica inmediata, lo que podría generar una falsa sensación de seguridad.
El líder del estudio, el doctor Ashwin Ramaswamy, explicó que su equipo diseñó 60 escenarios médicos reales y los probó repetidamente, comparando las respuestas de la IA con el consenso de profesionales de la salud. En muchos ejemplos donde era crucial derivar al usuario a una sala de emergencias, la herramienta no cumplió con esa recomendación.
La investigadora Alex Ruani del University College London calificó algunos de los resultados como “increíblemente peligrosos”, especialmente la inconsistencia en cómo la IA advertía sobre situaciones críticas.
OpenAI respondió señalando que el estudio no refleja el uso habitual de ChatGPT Health y que el sistema se actualiza constantemente para mejorar su comportamiento, pero los expertos destacan la necesidad de evaluaciones independientes y mayores medidas de seguridad antes de confiar en la herramienta para casos sensibles de salud.

Para comentar, debés estar registradoPor favor, iniciá sesión