Referencia de Anthropic a OpenAI: «Claude no contendrá anuncios»

Anthropic, rival de OpenAI, anunció en una serie de publicaciones que Claude no contendrá anuncios, incluso si se agregan anuncios a la inteligencia artificial en el futuro. «Sigue pensando». Los 4 videos del post compartido con el mensaje muestran cómo guiar los anuncios que se pueden agregar a los asistentes de inteligencia artificial a través de diferentes escenarios de uso, desde iniciar un negocio hasta escribir una tesis o adquirir ideas sobre comunicación familiar. Palabras como «traición», «violación» y «estafa» aparecen al principio de los vídeos.

El artículo de Anthropic titulado «Claude es un espacio para pensar» compartido sobre el tema explica por qué no se agregarán anuncios a Claude:

Insertar anuncios en las conversaciones con Claude sería incompatible con lo que queremos que sea Claude: un asistente verdaderamente útil para el trabajo y la reflexión profunda. Queremos que Claude actúe claramente en el mejor interés de nuestros usuarios. Por eso hemos tomado una decisión: Claude no incluirá publicidad. Nuestros usuarios no verán enlaces «patrocinados» junto a sus conversaciones con Claude; Las respuestas de Claude tampoco se verán influenciadas por los anunciantes ni contendrán ubicaciones de productos de terceros que nuestros usuarios no quieran.

Según Antrópico; Cuando las personas utilizan motores de búsqueda o redes sociales, esperan ver una combinación de contenido orgánico y patrocinado. Filtrar la señal del ruido es parte de esta interacción. Según el comunicado de la empresa; Las conversaciones con asistentes de inteligencia artificial son significativamente diferentes. En este formato abierto, los usuarios suelen compartir contexto y al mismo tiempo revelan más de lo que compartirían en la consulta de búsqueda. Según la empresa; Si bien esta apertura es uno de los elementos que hace que las conversaciones con la IA sean valiosas, también hace que se vean afectadas de una manera que no lo hacen otros productos digitales.

El análisis de Anthropic de las conversaciones con Claude muestra que una parte importante de las conversaciones involucran temas delicados o muy personales. Por lo tanto, estas conversaciones se consideran el tipo de conversaciones que puede tener con un asesor de confianza. Muchos otros usos implican tareas complejas de ingeniería de software, inmersiones profundas o reflexión sobre problemas difíciles. La empresa considera que sería inapropiado que los anuncios aparecieran en estos contextos:

Todavía tenemos mucho que aprender sobre el impacto de los modelos de IA en sus usuarios. Las primeras investigaciones muestran que si bien existen beneficios, como que las personas encuentren apoyo que no pueden encontrar en otros lugares, también existen riesgos, como el potencial de los modelos para reforzar creencias dañinas de los usuarios vulnerables. Introducir incentivos basados ​​en publicidad en esta etapa aumentaría aún más la complejidad. Nuestra comprensión de cómo los modelos traducen las metas que les fijamos en comportamientos específicos aún está evolucionando; Por lo tanto, un sistema basado en publicidad puede producir resultados impredecibles.

La compañía dice que incluso los anuncios que no influyen directamente en las respuestas del modelo de IA y que, en cambio, aparecen por separado en la ventana de chat comprometen lo que quieren que tenga Claude: un espacio despejado para relajarse y trabajar.

Además, la compañía enumera los pasos que han dado al respecto, haciendo referencia al comunicado de OpenAI de que ha dado este paso para aumentar el acceso:

Ampliar el acceso a Claude es fundamental para nuestra misión de interés público y queremos hacerlo sin vender la atención o los datos de nuestros usuarios a los anunciantes. Con ese fin, hemos proporcionado herramientas de IA y capacitación a educadores en más de 60 países, hemos lanzado programas piloto nacionales de educación en IA con muchos gobiernos y hemos ofrecido Claude a organizaciones sin fines de lucro con un descuento significativo.

Seguimos invirtiendo en modelos más pequeños para garantizar que nuestro servicio gratuito siga liderando el espacio de inteligencia y, cuando haya una demanda clara, podemos considerar niveles de suscripción de menor costo y opciones de precios regionales. Si necesitamos reconsiderar este enfoque, explicaremos de manera transparente nuestras razones para hacerlo.

Al afirmar que nuestra experiencia de uso de Internet nos facilita asumir que los anuncios son inevitables en los productos que utilizamos, Anthropic concluye sus palabras de la siguiente manera:

Pero abre un cuaderno, toma una herramienta bien diseñada o párate frente a una pizarra limpia y no verás ningún anuncio.

Creemos que Claude debería funcionar de la misma manera.


We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept