Opadai, Chatgpt ‘Aumentará las medidas de seguridad debido a la incapacidad de detectar las situaciones de angustia mental y crisis. Chats que tienen signos de suicidio o depresión grave ahora GPT-5 como modelos de razonamiento ser dirigido. La Compañía tiene como objetivo responder analizando el contexto de estos modelos durante un período de tiempo más largo y ser más resistente a las orientaciones dañinas.
Este paso llegó a la agenda cuando Adam Raine de 17 años compartió sus planes de suicidio con ChatGPT y su familia presentó un caso de muerte injusto contra Operai. Del mismo modo, el matar y suicidarse de los noruegos Stein-Erik Soelberg se suicidó como resultado de delirios aumentó el debate.
Por otro lado, podemos decir que en estos casos, la tendencia de ChatGPT a verificar las expresiones de los usuarios, y los siguientes algoritmos de estimación de palabras son insuficientes para dirigir conversaciones riesgosas. Operai también activará los controles parentales el próximo mes.
Las familias podrán ver los chats de sus hijos, cerrar las características, como el historial de chat y la memoria, y obtener advertencias cuando el sistema detecta problemas agudos. La compañía anunció que estos pasos son parte de un plan de seguridad de 120 días y cooperan con expertos en el campo de la salud de los adolescentes, la adicción a las sustancias y los trastornos alimentarios. Sin embargo, el abogado de la familia Raine encuentra inadecuado la respuesta de la compañía y exige que ChatGPT se retire del mercado.
Los funcionarios de Operai agregan que la plataforma agrega recordatorios que alientan a los usuarios a tomar un descanso en largas conversaciones, pero en el caso de una crisis grave, detener automáticamente la conversación aún está en la fase de prueba.
