Grok difundió información falsa sobre el atentado de Bondi

Grok, el chatbot desarrollado por la iniciativa de inteligencia artificial xAI de Elon Musk, compartió mucha información errónea sobre el ataque armado en la playa de Bondi, en Sídney (Australia). En las publicaciones de la plataforma X, se anunciaba incorrectamente la identidad del ciudadano civil que neutralizó a un atacante durante el incidente. Esto ha vuelto a poner en entredicho la credibilidad de la plataforma en cuanto a la exactitud de la información y la producción de contenidos basados en IA.

Según Gizmodo, Ahmed al Ahmed, de 43 años, fue identificado erróneamente en varias publicaciones de Grok. Al Ahmed, que intervino valientemente durante el atentado y neutralizó a uno de los atacantes, fue confundido con otras personas en algunas de las publicaciones de Grok. En uno de ellos, una foto de Al Ahmed se identificó erróneamente con la de un rehén israelí. Otro post se desviaba del tema al presentar información irrelevante sobre el trato del ejército israelí a los palestinos.

Grok mezcló información engañosa con personajes de ficción

Uno de los errores más notables de Grok fue un post en el que afirmaba que la persona que bloqueó el ataque era un experto informático de 43 años llamado «Edward Crabtree». Sin embargo, es probable que este nombre fuera un error periodístico o una referencia a un personaje ficticio que circula por las redes sociales. Al parecer, el sitio web en el que se basan las acusaciones sobre el nombre de Crabtree es una plataforma en gran parte inoperante y probablemente contiene contenidos creados por inteligencia artificial.

Tras los errores, Grok empezó a corregir algunos contenidos. Por ejemplo, un post que contenía un vídeo que pretendía mostrar el ciclón Alfred, una tormenta tropical, fue corregido más tarde tras una «reevaluación». Sin embargo, estas correcciones pusieron de manifiesto la rápida propagación de la desinformación en las redes sociales y el impacto potencial de estos contenidos en la sociedad.

Más tarde, Grok reconoció la identidad de Al Ahmed y afirmó en un comunicado que «el malentendido se debió a las publicaciones virales que lo identificaban como Edward Crabtree». En el comunicado se afirmaba que el error podía deberse a una información errónea o a una referencia humorística a un personaje de ficción.

Sin embargo, este incidente ha puesto de manifiesto la falta de control en los procesos de producción de contenidos de Grok y cómo los sistemas basados en inteligencia artificial pueden ser propensos a errores en términos de comprobación de hechos, especialmente en tiempos de crisis. La necesidad de que las plataformas de medios sociales refuercen los mecanismos de control tanto algorítmico como editorial para que estas aplicaciones de inteligencia artificial sean más fiables en entornos en los que los usuarios consumen información rápidamente ha vuelto a salir a la palestra.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept