ChatGPT ahora puede comunicarse con un ‘contacto de confianza’ después de conversaciones sobre autolesiones


A pesar de los consejos de los expertos en contra de confiar en los chatbots para preguntas e inquietudes sobre salud mental, la gente está recurriendo a programas de inteligencia artificial como ChatGPT en busca de ayuda. La compañía ha enfrentado críticas por la forma en que sus productos han manejado ciertos problemas de salud mental, incluidos episodios en los que los usuarios se suicidaron luego de conversaciones con ChatGPT. Como parte de una campaña para abordar estos problemas, OpenAI está implementando un sistema de control de seguridad voluntario para usuarios que puedan estar preocupados por sus pensamientos.

Según informó Mashable, OpenAI acaba de lanzar «Contacto de confianza», una nueva función que le permite elegir una persona de confianza en su vida para conectarse a su cuenta ChatGPT. La idea no es compartir tus conversaciones o colaborar en proyectos dentro de ChatGPT; más bien, si el chatbot cree que sus chats personales están virando en una dirección preocupante con respecto a la autolesión, ChatGPT se comunicará con su contacto de confianza y le informará que lo controle.


Crédito: OpenAI

Para configurar la función, elija a alguien en su vida que tenga 18 años o más. (El contacto debe tener 19 años o más en Corea del Sur). ChatGPT le enviará a esa persona una invitación para convertirse en su contacto de confianza: tiene una semana para responder antes de que expire la invitación. Por supuesto, también pueden rechazar la invitación si no quieren participar.

Si el contacto está de acuerdo, la función se activa. En el futuro, si el sistema automatizado de OpenAI cree que está hablando de hacerse daño a sí mismo «de una manera que indica un problema de seguridad grave», ChatGPT le informará que puede comunicarse con el contacto de confianza, pero también lo alentará a comunicarse con ese contacto usted mismo, con «iniciadores de conversación» para romper el hielo.

Mientras eso sucede, OpenAI cuenta con un equipo de «personas especialmente capacitadas» para analizar la situación. (Parece que no todo está automatizado). Si este equipo concluye que la situación es grave, ChatGPT alertará a su contacto de confianza por correo electrónico, mensaje de texto o mediante una notificación en la aplicación ChatGPT si tiene una cuenta. OpenAI dice que la notificación en sí es bastante limitada y solo comparte información general sobre el problema de autolesión y recomienda al contacto que se comunique con usted. Tampoco enviará transcripciones ni resúmenes del chat, por lo que se debe preservar su privacidad general, considerando todo.

¿Qué opinas hasta ahora?

OpenAI dice que está trabajando para revisar las notificaciones de seguridad en menos de una hora y que desarrolló la función con la orientación de médicos, investigadores y organizaciones de salud mental y prevención del suicidio. La función es, por supuesto, totalmente voluntaria, por lo que el usuario deberá inscribirse (y un contacto) si cree que le resultaría útil. Sin embargo, siempre que lo hagan, esta podría ser una forma útil para que amigos y familiares controlen a las personas cuando tienen dificultades, suponiendo que estén compartiendo esos pensamientos con ChatGPT.

Divulgación: Ziff Davis, la empresa matriz de Lifehacker, presentó en abril de 2025 una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA.


We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept