El editor en línea Medium dice que puede publicar dichos artículos si se divulga públicamente que se utilizan herramientas de creación basadas en inteligencia artificial (IA) como ChatGPT. La plataforma de blogs, que permite a cualquier persona crear su propio blog mientras vende acceso basado en membresía a contenido exclusivo, es la última en establecer reglas básicas para el texto generado por IA. Scott Lamb, vicepresidente de contenido de Medium, compartió la nueva política en una publicación de blog.
“Damos la bienvenida al uso responsable de la tecnología impulsada por IA en Medium”, dijo Lamb en el artículo. Para fomentar la transparencia y ayudar a establecer las expectativas de los lectores, requerimos que todos los artículos generados por IA estén claramente etiquetados como tales”. dicho. Hizo hincapié en que esto es solo un «primer acercamiento» y que la política de la empresa puede cambiar a medida que cambia la tecnología.
“Creemos que crear una cultura de divulgación donde una expectativa compartida de buena ciudadanía es la divulgación de contenido generado por IA empodera a los lectores”. el escribio. “Les permite identificar sus propias reacciones y participación en este tipo de trabajo y comprender claramente si un manuscrito fue escrito por una máquina o por humanos”. también usó sus palabras.
La compañía dice que cuando encuentra publicaciones no reveladas que cree que se generaron artificialmente, no se eliminarán, pero no se promocionarán a un público más amplio a través de las diversas funciones de recomendación de Medium. Es decir, no estarán en la sección “Para ti” de la página de inicio ni en el boletín electrónico “Medium Digest”.
Varios escritores y publicaciones que utilizan Medium ya han prohibido el uso de herramientas de creación basadas en IA. Por ejemplo, Towards Data Science, el segundo blog más seguido del sitio, dice que «se compromete a publicar el trabajo de autores humanos únicamente» y solo permitirá texto generado por IA cuando esté explícitamente etiquetado y utilizado como ejemplo.
Medium no dice que escaneará proactivamente los artículos publicados para detectar texto generado por IA. Hay una serie de detectores de texto de IA disponibles, pero aunque pueden detectar de manera confiable texto generado por IA y sin editar, los autores humanos pueden personalizar la salida de la IA para evitar esta detección.
Estas herramientas también tienen otros problemas con los editores, incluido que las herramientas de escritura basadas en IA pueden plagiar fácilmente. Alex Kantrowitz, periodista tecnológico de Substack, escribió en una publicación reciente que usó inteligencia artificial para copiar, parafrasear y volver a publicar una de las publicaciones de otro usuario de Substack. Esta publicación se volvió viral, pero desde entonces ha sido eliminada del sitio. Su autor admitió que se utilizaron herramientas de inteligencia artificial para aumentar la legibilidad del artículo.
“Imagínese la inteligencia artificial reorganizando las diez historias más leídas del día del Financial Times o la sección de capital de riesgo de The Information y haciendo que las noticias sean accesibles sin una barrera de pago”, dijo Kantrowitz. el escribe.
Recientemente, una serie de editores digitales comenzó a experimentar con el uso de herramientas de creación basadas en IA. BuzzFeed anunció el jueves que utilizará inteligencia artificial para personalizar y mejorar el contenido para los lectores, mientras que CNET parece estar usándolo recientemente en artículos de tecnología de IA. Sin embargo, la publicación dejó de usar IA para crear artículos luego de quejas de que esta tecnología no se divulgaba correctamente y los artículos tenían numerosos errores.