Puede cambiar el diseño de control de contenido con OpenAI GPT-4

OpenAI cree que puede usar la tecnología GPT-4 para resolver uno de los problemas más difíciles de la tecnología, la moderación de contenido. La compañía afirma que el GPT-4 puede reemplazar a decenas de miles de controladores humanos, con casi la misma precisión y mayor consistencia.

Control de contenido con GPT-4: un nuevo enfoque

OpenAI ya usa GPT-4 para desarrollar y editar sus propias políticas de contenido, etiquetar contenido y tomar decisiones. La compañía cree que este enfoque podría ser beneficioso para la sociedad.

Se afirma que GPT-4 tiene tres ventajas principales en la inspección de contenido. Primero, mientras que los humanos interpretan las políticas de manera diferente, las máquinas pueden ser consistentes en sus decisiones. En segundo lugar, GPT-4 puede ayudar a desarrollar una nueva política en cuestión de horas. En tercer lugar, se llama la atención sobre la salud mental de los empleados que están constantemente expuestos a contenidos nocivos.

Sin embargo, OpenAI en sí mismo también depende en gran medida de los trabajadores de clics y su fuerza laboral humana. Miles de personas están etiquetando y marcando contenido. El trabajo es estresante y el salario es bajo.

Aunque OpenAI describe su enfoque como nuevo y revolucionario, la inteligencia artificial se ha utilizado para la auditoría de contenido durante años. Plataformas como Meta, Google y TikTok usan algoritmos para moderar contenido dañino e ilegal.

Todas las plataformas admiten que la moderación perfecta del contenido es imposible. Los humanos y las máquinas pueden cometer errores y, aunque el porcentaje es bajo, pueden colarse millones de publicaciones maliciosas.

Como resultado, OpenAI puede ayudar a resolver un problema agravado por su propia tecnología. Si bien OpenAI ha prometido que GPT-4 será más preciso en la creación y difusión de información errónea en las redes sociales, aún puede generar información errónea relacionada con noticias y contenido engañoso.

Este desarrollo podría ser un paso importante hacia el futuro de la moderación de contenido en el mundo de la tecnología. El trabajo de OpenAI en esta área puede ofrecer nuevas formas de moderar el contenido de manera más efectiva y consistente. Sin embargo, aún quedan por responder preguntas como cómo se aplicará exactamente esta tecnología y cómo se abordarán los problemas éticos.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept