Operai reconstruye el equipo de «comportamiento modelo» que da forma a la personalidad de Chatgpt

El gigante de inteligencia artificial Openai reconstruye el equipo de comportamiento modelo. Este pequeño equipo de investigadores notables determina cómo interactuarán los modelos OpenAI con los usuarios. Mark Chen, el principal responsable de OpenAI en una nota interna compartida en agosto, dice que el equipo de comportamiento modelo de 14 personas se unirá al equipo de entrenamiento posterior, que podemos traducir como un post -entrenamiento. El equipo de capacitación posterior aparece como un grupo de investigación más grande responsable de mejorar los modelos de inteligencia artificial de la compañía después de la primera capacitación preliminar.

Con este desarrollo, Model Behavior Team ahora informará al líder de capacitación posterior a Openi, Max Schwarzer. Además, la líder fundadora del Model Behavior Team, Joanne Jang, deja su posición para comenzar un nuevo proyecto en la compañía. Jang está construyendo un nuevo equipo de investigación llamado OAI Labs, que se centra en inventar nuevas interfaces y crear el prototipo de cómo las personas cooperan con inteligencia artificial.

Joanne Jang servirá como gerente general de OAI Labs, que estará afiliada a Mark Chen por ahora. Oai Labs, dispositivos de hardware de inteligencia artificial, ex chef de diseño de Apple Jony Ive en nuevas interfaces con las preguntas planteadas para Jang, está abierta a todo tipo de ideas, dijo.

Model Behavior Team, que da forma a la personalidad de los modelos de OpenAI, es responsable de reducir y reforzar las creencias de los usuarios, incluso si son incorrectos, en lugar de proporcionar una respuesta equilibrada a los modelos de inteligencia artificial. Además, el equipo, que intentó abordar los prejuicios políticos en las respuestas modelo, apoyó la actitud de OpenAi hacia la conciencia de inteligencia artificial.

Model Behavior Team ha trabajado en todos los modelos Operai desde el GPT-4. Esto incluye GPT-4O, GPT-4.5 y GPT-5. Sin embargo, los usuarios reaccionaron a los cambios de personalidad en el GPT-5. De hecho, según la compañía; Estos cambios impidieron que el modelo simplemente aceptara y reforzara las creencias de los usuarios. Pero los usuarios encontraron las respuestas del GPT-5 frías. Entonces, se lanzó una actualización para hacer que las respuestas GPT-5 «más cálidas y amigables», mientras que el GPT-4O CHATGPT fue traído de vuelta.

Mientras tanto, en agosto, la familia de un niño de 16 años demandó a Openai por supuestamente desempeñar un papel en el suicidio de sus hijos. Según los documentos de la corte, Adam Raine, el joven, le contó a Chatgpt sobre sus pensamientos y planes suicidas en los meses previos a su muerte. El chatgpt fue una versión de GPT-4O. El caso afirma que GPT-4O no podría prevenir los pensamientos suicidas. Después de estos desarrollos, OpenAI anunció que ofrecerá inspecciones de los padres dirigiendo conversaciones confidenciales al GPT-5.

De acuerdo con la información contenida en la nota de Chen enviada al personal; El equipo de comportamiento del modelo de OpenAI se centrará en hacer que su trabajo sea más cercano al desarrollo del modelo básico. En este contexto, podemos decir que la personalidad de la inteligencia artificial de OpenAI es ahora un factor crítico en cómo se desarrolla la tecnología.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept