Los ciberdelincuentes se quejan de que la IA inunda sus foros

Suena la denuncia familiar. «Me decepciona que estén trabajando para incorporar basura de IA en el sitio», dijo una persona molesta, publicando de forma anónima, en un mensaje en línea. «Nadie está pidiendo esto; queremos que mejoren el sitio y dejen de cobrar por nuevas funciones».

Solo que no se trata de un usuario habitual de Internet que se queja de que la IA se ve obligada a ingresar en su aplicación favorita. En cambio, se quejan de los planes de un foro sobre ciberdelincuencia para introducir una IA más generativa. Al igual que millones de personas, los estafadores, estafadores y piratas informáticos de bajo nivel se están molestando porque la IA invade sus vidas y por el aumento de publicaciones basura de IA de baja calidad en sus comunidades en línea.

«A la gente no le gusta», dice Ben Collier, investigador de seguridad y profesor titular de la Universidad de Edimburgo. Como parte de un estudio reciente sobre cómo los ciberdelincuentes de bajo nivel utilizan la IA, Collier y sus colegas investigadores detectaron un creciente rechazo al uso de la IA generativa en foros clandestinos sobre cibercrimen y grupos de piratería.

Durante el auge generativo de la IA y los ciclos de exageración de los últimos años, algunas personas que publican en foros de piratería han pasado de ser positivos acerca de cómo la IA puede ayudar a la piratería a un mayor escepticismo sobre la tecnología, según el estudio, en el que también participaron investigadores de la Universidad de Cambridge y la Universidad de Strathclyde.

Los investigadores analizaron 97.895 conversaciones relacionadas con la IA en foros sobre delitos cibernéticos desde el lanzamiento de ChatGPT en 2022 hasta finales del año pasado. Encontraron quejas sobre personas que arrojaban “explicaciones detalladas” de conceptos básicos de ciberseguridad, quejándose de la cantidad de publicaciones de baja calidad y preocupaciones sobre las resúmenes de búsqueda de inteligencia artificial de Google que reducen la cantidad de visitantes a los foros.

Durante décadas, los foros y mercados de ciberdelincuencia, a menudo de origen ruso, han permitido a los estafadores hacer negocios juntos. Son lugares donde se pueden comercializar datos robados, se anuncian trabajos de piratería informática y los estafadores hablan mal de sus rivales. Si bien los estafadores suelen intentar estafarse entre sí, los foros también tienen un sentido de comunidad. Por ejemplo, los usuarios se ganan la reputación de ser confiables y los propietarios de foros organizan concursos de redacción.

«Estos son esencialmente espacios sociales. Realmente odian que otras personas usen [AI] «Creo que muchos de ellos son un poco ambivalentes acerca de la IA porque socava su pretensión de ser una persona capacitada».

Las publicaciones revisadas por WIRED en Hack Forums, un espacio autodenominado para aquellos interesados ​​en hablar sobre técnicas de piratería e intercambio, muestran la irritación causada por las personas que crean publicaciones con IA. «Veo a muchos miembros que usan IA para crear sus hilos/publicaciones y me molesta porque ni siquiera se toman el tiempo para escribir una o dos oraciones simples», escribió un cartel. Otro lo expresó de manera más directa: «Dejen de publicar mierda sobre IA».

En varios casos, dice Collier, los usuarios de múltiples foros parecen irritarse por las publicaciones de IA porque quieren hacer amigos. «Si quisiera hablar con un chatbot de IA, hay muchos sitios web para hacerlo… vengo aquí para la interacción humana», dice una publicación citada en la investigación.

Desde que surgió ChatGPT a finales de 2022, ha habido un gran interés en las capacidades de piratería de IA y en cómo la tecnología puede transformar el crimen en línea. Tanto los piratas informáticos sofisticados como los menos capaces han intentado utilizar la IA en sus ataques. Si bien algunos estafadores organizados han impulsado sus operaciones con tecnología de intercambio de rostros de IA cada vez más realista y mensajes de ingeniería social traducidos mediante IA, se ha prestado mucha atención a las capacidades de la IA generativa para escribir código malicioso y descubrir vulnerabilidades.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept