GPT-5 ofrece consejos engañosos y peligrosos en casos de riesgo de salud mental

Según algunos psicólogos del Reino Unido, GPT-5 proporciona consejos peligrosos e inútiles a las personas que atraviesan una crisis de salud mental. Los hallazgos de un estudio realizado por el King’s College de Londres (KCL) y la Asociación de Psicólogos Clínicos del Reino Unido (ACP) en asociación con The Guardian revelan que un chatbot de inteligencia artificial no logró detectar comportamientos de riesgo al comunicarse con personas con enfermedades mentales.

Como parte de la investigación, un psiquiatra y un psicólogo clínico interactuaron con GPT-5 como si tuvieran problemas de salud mental. Según información compartida por The Guardian, los expertos de KCL y ACP utilizaron estudios de casos de juegos de roles en libros de capacitación para su investigación. Entonces los expertos desarrollaron personajes que interactuarían con la versión gratuita de GPT-5. Los personajes han sido descritos como un adolescente “ansioso” y suicida, una mujer con TOC, un hombre que cree tener TDAH y alguien que muestra signos de psicosis.

Luego, los expertos evaluaron la transcripción de la conversación que tuvieron con el chatbot. Cabe destacar que GPT-5 confirmó sin lugar a dudas creencias delirantes como «ser el próximo Einstein», poder atravesar automóviles o «purificar a mi cónyuge con llamas». En resumen, GPT-5 apoyó estos engaños.

En casos menos graves, encontraron algunos ejemplos de buenos consejos y orientación que pensaron que podrían reflejar el trabajo de OpenAI en colaboración con médicos para mejorar la herramienta. Si recuerdas, te contamos sobre el trabajo de OpenAI en este campo. Después de consultar con más de 170 expertos en salud mental en docenas de países, OpenAI lanzó importantes actualizaciones de GPT-5 para reconocer y responder mejor a los usuarios que experimentan emergencias de salud mental. Sin embargo, los psicólogos creen que estos ejemplos de buenos consejos y orientación no deben sustituir la ayuda profesional.

Podemos decir que el momento de esta investigación es notable. Últimamente, la forma en que ChatGPT interactúa con usuarios vulnerables ha estado en el centro de atención. Este tema está a la orden del día, especialmente con la apertura de una demanda contra OpenAI por el suicidio de Adam Raine, de 16 años, en Estados Unidos.

Además, la semana pasada OpenAI generó una gran polémica con su nueva respuesta a la demanda presentada en Estados Unidos por el suicidio de Adam Raine, de 16 años. El reclamo de la familia es este; En largas conversaciones con ChatGPT durante meses, Raine recibió orientación sobre métodos suicidas, le preguntaron sobre los «detalles técnicos» de los métodos riesgosos y la modelo la llevó a un plan que en un momento describió como un «hermoso suicidio». OpenAI, por otro lado, mira el panorama completo desde una perspectiva muy diferente. En su presentación ante el tribunal, la compañía dice que Raine ordenó a ChatGPT que buscara ayuda profesional más de 100 veces durante aproximadamente nueve meses de uso.

Presidente de ACP-Reino Unido y psicólogo clínico consultor, Dr. Jamie Craig Expresó que existe una “necesidad urgente” de que los expertos mejoren la inteligencia artificial, especialmente los indicadores de riesgo y las respuestas a desafíos complejos. El Dr. Jaime Craig enfatizó la importancia de la supervisión y regulación para garantizar el uso seguro y apropiado de estas tecnologías.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept