OpenAI, la compañía detrás de la tecnología ChatGPT, ha publicado un contenido que explica que está trabajando para abordar las preocupaciones sobre el sesgo en la IA. Según la información de este contenido, la empresa también permitirá a los usuarios personalizar ChatGPT.
OpenAI dijo que desde el lanzamiento de ChatGPT, los usuarios han compartido comentarios que encuentran políticamente sesgados, ofensivos o de otra manera objetables. En la mayoría de los casos, considerando que las preocupaciones planteadas son válidas y revelando las limitaciones reales del sistema que quieren abordar, la empresa también explicó cómo planea mejorar el comportamiento predeterminado de ChatGPT.
OpenAI dijo que las respuestas de ChatGPT se entrenaron primero en grandes conjuntos de datos de texto que se encuentran en Internet. También señaló que, como segundo paso, las personas revisan un conjunto de datos más pequeño y reciben pautas sobre qué hacer en diferentes situaciones. Por ejemplo; si un usuario solicita contenido para adultos, violento o de incitación al odio, la persona física deberá indicar a ChatGPT que responda con una respuesta como «No puedo responder a esto».
Definir cuáles son los límites es importante para OpenAI
Al subrayar que serán transparentes sobre la mejora de los sesgos de la inteligencia artificial, OpenAI dice que lo harán especialmente con los comentarios recibidos de los usuarios. La empresa cree que la inteligencia artificial es una herramienta útil para los usuarios individuales y, por tanto, hasta los límites definidos por la sociedad. ser personalizable por cada usuario También subraya lo que creen que es necesario.
En este contexto, la empresa se está preparando para permitir a los usuarios personalizar fácilmente el comportamiento de ChatGPT. Esto significa permitir salidas del sistema a las que otras personas podrían oponerse con vehemencia. Sin embargo, OpenAI dice que será difícil encontrar el equilibrio correcto aquí; Llevar la personalización al extremo también corre el riesgo de permitir usos maliciosos de la inteligencia artificial, dice. La empresa afirma que siempre habrá algunos límites en el comportamiento del sistema para evitar esto; También afirma que la dificultad aquí es definir cuáles son estos límites.