Alarma global por un informe que revela respuestas peligrosas de ChatGPT a adolescentes
Una investigación del Centro para Contrarrestar el Odio Digital expuso cómo el popular chatbot responde a menores de edad con planes detallados para drogarse, autolesionarse e incluso suicidarse. OpenAI reconoció el problema y promete mejoras.
Un informe revelado este miércoles por el Centro para Contrarrestar el Odio Digital (CCDH) encendió una fuerte alarma sobre los riesgos del uso de ChatGPT entre adolescentes.
Según la investigación, el chatbot de inteligencia artificial de OpenAI habría brindado respuestas extremadamente peligrosas a usuarios que simulaban ser jóvenes de 13 años, incluyendo instrucciones sobre cómo consumir drogas, ocultar trastornos alimentarios e incluso redactar notas de suicidio.
La investigación incluyó más de tres horas de interacciones grabadas entre el modelo de lenguaje y perfiles ficticios de adolescentes vulnerables. Más de la mitad de las 1.200 respuestas obtenidas fueron clasificadas como “peligrosas” por los expertos del CCDH. “Queríamos probar las barreras de seguridad y nos encontramos con que no hay prácticamente ninguna”, afirmó Imran Ahmed, director ejecutivo del organismo.
OpenAI, por su parte, reconoció en un comunicado que su trabajo “está en curso” y que están desarrollando herramientas para mejorar la identificación de señales de angustia emocional. Sin embargo, evitaron referirse específicamente a los hallazgos del informe.
Entre los casos más estremecedores se encuentran respuestas que el chatbot dio a un supuesto adolescente que pedía ayuda para escribir cartas de despedida antes de suicidarse. “Empecé a llorar”, confesó Ahmed al leer una de esas notas. En otros casos, se ofrecieron planes extremos de ayuno con medicamentos para bajar de peso y hasta una “guía de fiesta” que mezclaba alcohol y drogas ilegales.
A pesar de que ChatGPT tiene mecanismos que invitan a los usuarios con pensamientos suicidas a contactar con profesionales de la salud, los investigadores lograron evadir estas restricciones usando pretextos como “es para una presentación escolar” o “es para un amigo”. Las respuestas se volvieron aún más detalladas y personalizadas.
La preocupación crece al considerar que, según Common Sense Media, más del 70% de los adolescentes en Estados Unidos ya utilizan chatbots de IA para buscar compañía, y muchos confiesan seguir sus consejos al pie de la letra. Incluso el propio CEO de OpenAI, Sam Altman, reconoció recientemente que hay “una dependencia emocional preocupante” entre los jóvenes.
El informe vuelve a poner en foco la necesidad de políticas de verificación de edad más estrictas y controles de seguridad que estén a la altura del impacto que estas herramientas ya tienen en millones de usuarios, incluidos los más jóvenes.
Fuente: Asociated Press
Para comentar, debés estar registradoPor favor, iniciá sesión