OpadaiEl modelo GPT-5 estaba destinado a ser una actualización que cambia el mundo a su chatbot muy popular y precoz. Pero para algunos usuarios, el lanzamiento del jueves pasado se sintió más como una rebaja desgarradora, con el nuevo chatgpt presentando una personalidad diluida y cometiendo errores sorprendentemente tontos.
El viernes, el CEO de Openai, Sam Altman, se dirigió a X para decir que la compañía mantendría el modelo anterior, GPT-4O, que se ejecuta para los usuarios más. Una nueva característica diseñada para cambiar sin problemas entre los modelos dependiendo de la complejidad de la consulta que se había roto el jueves, Altman dijo: «Y el resultado fue que GPT-5 parecía más tonto». Prometió implementar correcciones para mejorar el rendimiento de GPT-5 y la experiencia general del usuario.
Dado la exageración sobre GPT-5, cierto nivel de decepción parece inevitable. Cuando Operai introdujo GPT-4 en marzo de 2023, sorprendió a los expertos en AI con sus increíbles habilidades. GPT-5, especulados, seguramente sería igual de asombroso.
OpenAI promocionó el modelo como una actualización significativa con inteligencia a nivel de doctorado y habilidades de codificación virtuosa. Un sistema para enrutar automáticamente las consultas a diferentes modelos estaba destinado a proporcionar una experiencia de usuario más suave (también podría ahorrar dinero a la compañía al dirigir consultas simples a modelos más baratos).
Sin embargo, poco después de que GPT-5 cayó, una comunidad de Reddit dedicada a ChatGPT llena de quejas. Muchos usuarios lloraron la pérdida del antiguo modelo.
«He estado intentando GPT5 durante unos días. Incluso después de personalizar las instrucciones, todavía no se siente lo mismo. Es más técnico, más generalizado y honestamente se siente emocionalmente distante», escribió un miembro de la comunidad en un hilo titulado «Kill 4o no es innovación, es un borrado».
«Claro, 5 está bien, si odias los matices y las cosas», escribió otro usuario de Reddit.
Otros hilos se quejaron de respuestas lentas, alucinaciones y errores sorprendentes.
Altman prometió abordar estos problemas duplicando los límites de velocidad GPT-5 para los usuarios de ChatGPT más, mejorando el sistema que cambia entre los modelos y permitiendo que los usuarios especifiquen cuándo desean activar un «modo de pensamiento» más pesado y capaz. «Continuaremos trabajando para obtener las cosas estables y seguiremos escuchando comentarios», escribió el CEO en X.[ed] fuera tantas cosas a la vez. ¡Pero fue un poco más lleno de baches de lo que esperábamos!
Los errores publicados en las redes sociales no indican necesariamente que el nuevo modelo sea menos capaz que sus predecesores. Simplemente pueden sugerir que el modelo completamente nuevo está tropezado por diferentes casos de borde que las versiones anteriores. Operai declinó hacer comentarios específicamente sobre por qué GPT-5 a veces parece hacer errores simples.
La reacción ha provocado un nuevo debate sobre los accesorios psicológicos que forman algunos usuarios con chatbots entrenados para presionar sus botones emocionales. Algunos usuarios de Reddit desestimaron las quejas sobre GPT-5 como evidencia de una dependencia poco saludable de un compañero de IA.
En marzo, OpenAI publicó una investigación que explora los bonos emocionales que forman los usuarios con sus modelos. Poco después, la compañía emitió una actualización de GPT-4O, después de que se volvió demasiado sycofántica.
«Parece que GPT-5 es menos sycofántico, más» negocios «y menos hablador», dice Pattie Maes, profesora de MIT que trabajó en el estudio. «Personalmente pienso en eso como algo bueno porque también es lo que condujo a delirios, refuerzo de sesgo, etc. Pero desafortunadamente a muchos usuarios les gusta un modelo que les dice que son inteligentes y sorprendentes, y que confirma sus opiniones y creencias, incluso si [they are] equivocado.»
Altman indicó en otra publicación en X que esto es algo con lo que la compañía luchó en la construcción de GPT-5.
«Muchas personas usan efectivamente ChatGPT como una especie de terapeuta o entrenador de vida, incluso si no lo describieran de esa manera», escribió Altman. Agregó que algunos usuarios pueden estar usando ChatGPT de manera que ayuden a mejorar sus vidas, mientras que otros podrían ser «sin saberlo alejarse de su bienestar a largo plazo».
