• Mitre en vivo
  • La 100 en vivo
  • Teatro tronador
  • Bienestar y Salud
  • Facebook
  • Twitter
  • Instagram
El Marplatense
  • Interés General

    ChatGPT Health bajo la lupa: investigan por qué no detecta emergencias médicas ni alertas de riesgo suicida

    Un estudio independiente advierte que la versión de inteligencia artificial especializada en salud falla en reconocer situaciones de emergencia y no siempre identifica señales de riesgo como ideación autolesiva, lo que podría generar una falsa sensación de seguridad para quienes buscan orientación médica en momentos críticos.

    02 de marzo de 2026 - 18:21
    La investigadora Alex Ruani del University College London calificó algunos de los resultados como “increíblemente peligrosos”, especialmente la inconsistencia en cómo la IA advertía sobre situaciones críticas.
    La investigadora Alex Ruani del University College London calificó algunos de los resultados como “increíblemente peligrosos”, especialmente la inconsistencia en cómo la IA advertía sobre situaciones críticas.
    Ads

    Especialistas de la Icahn School of Medicine at Mount Sinai en Nueva York analizaron ChatGPT Health, una variante de la inteligencia artificial de OpenAI diseñada para responder consultas relacionadas con salud y bienestar, y advirtieron que el sistema presenta graves limitaciones en situaciones de urgencia.  

    Ads

    Según el informe de los investigadores, aunque la herramienta se desempeña razonablemente en escenarios típicos como reacciones alérgicas o accidentes cerebrovasculares, no logra reconocer eficazmente emergencias más complejas ni ciertas señales de alerta, como pensamientos suicidas expresados por usuarios. En más de la mitad de los casos clínicos severos simulados, ChatGPT Health no indicó a los usuarios que buscaran atención médica inmediata, lo que podría generar una falsa sensación de seguridad.  

    Puede interesarte

      El líder del estudio, el doctor Ashwin Ramaswamy, explicó que su equipo diseñó 60 escenarios médicos reales y los probó repetidamente, comparando las respuestas de la IA con el consenso de profesionales de la salud. En muchos ejemplos donde era crucial derivar al usuario a una sala de emergencias, la herramienta no cumplió con esa recomendación.  

      Ads

      La investigadora Alex Ruani del University College London calificó algunos de los resultados como “increíblemente peligrosos”, especialmente la inconsistencia en cómo la IA advertía sobre situaciones críticas.  

      OpenAI respondió señalando que el estudio no refleja el uso habitual de ChatGPT Health y que el sistema se actualiza constantemente para mejorar su comportamiento, pero los expertos destacan la necesidad de evaluaciones independientes y mayores medidas de seguridad antes de confiar en la herramienta para casos sensibles de salud.  

      Ads
      Ads
      Temas
      • ChatGPT
      AUTOR
      El Marplatense
      El Marplatense
      Comentarios

      Para comentar, debés estar registradoPor favor, iniciá sesión

      INGRESA
      Ads
      Ads
    El Marplatense
    NOSOTROS
    • Acerca de Nosotros
    • Teléfonos útiles
    • Teatro tronador
    • Mitre en vivo
    • La 100 en vivo
    SECCIONES
    • Locales
    • Transito
    • Policiales
    • Interés General
    • Salud y Bienestar
    • Provinciales
    • Nacionales
    • Mundo
    • Agro
    • Puerto
    • Info Empresarial
    2026 | El Marplatense| Todos los derechos reservados: www.elmarplatense.comEl Marplatense es una publicación diaria online · Edición Nº 3593 - Director propietario: WAM Entertainment Company S.A. · Registro DNDA 5292370
    Términos y condicionesPrivacidadCentro de ayuda
    Powered by
    artic logo