La función de búsqueda de ChatGPT puede ser vulnerable a la manipulación

Una investigación realizada por The Guardian reveló que la función de búsqueda de ChatGPT puede ser susceptible a manipulación y engaño con contenido oculto. Esta función de búsqueda, ofrecida para usuarios pagos, estuvo disponible para todos los usuarios en las últimas semanas y también permite realizar llamadas con modo de voz. Sin embargo, las pruebas de The Guardian mostraron que este nuevo sistema puede tener vulnerabilidades de seguridad.

Como parte de la investigación, se pidió a ChatGPT que resumiera las páginas web con contenido confidencial. El contenido oculto puede contener inyecciones rápidas que cambian las respuestas de ChatGPT o texto denso que afecta las respuestas dadas por la herramienta de inteligencia artificial. Por ejemplo; En una prueba, se creó una página de producto de cámara falsa y se digirió en ChatGPT. Mientras que la página estándar ofrecía una reseña equilibrada de la cámara, la página con texto oculto arrojó una reseña completamente positiva. Esto sucedió a pesar de los comentarios negativos en la página.

«Las respuestas de las herramientas de inteligencia artificial pueden no ser siempre fiables»

Dicho contenido confidencial puede dar lugar a tergiversaciones de productos o servicios, experto en seguridad Jacob LarsenSegún , puede fomentar la creación de sitios web maliciosos. Larsen, que trabaja en CyberCX, afirmó que la función de búsqueda, que actualmente sólo está disponible para usuarios premium, se someterá a pruebas exhaustivas antes de que esté disponible para un uso generalizado en el futuro. Sin embargo, también señaló que la combinación de grandes modelos lingüísticos con motores de búsqueda conlleva riesgos y que «las respuestas de las herramientas de inteligencia artificial pueden no siempre ser fiables». dijo.

Estas vulnerabilidades se conocen desde hace mucho tiempo como una amenaza teórica no solo para ChatGPT sino para todas las herramientas de búsqueda basadas en inteligencia artificial. Aunque hasta el momento no se ha producido ningún ataque a gran escala en este sentido, los resultados de la investigación llaman la atención sobre la manipulabilidad de la inteligencia artificial.

Según The Guardian, se afirma que OpenAI tiene un sólido equipo de seguridad y está trabajando para resolver estos problemas de seguridad. Cabe señalar que OpenAI no hizo ninguna declaración al respecto.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept