Anthrope comenzará a entrenar modelos de inteligencia artificial en textos de chat

Al explicar que ha cambiado las condiciones del consumidor y la política de privacidad ayer, Anthrope anunció que planea capacitar a Claude con robot de chat de inteligencia artificial con datos de usuarios. Los usuarios existentes verán una ventana pop -UP donde Anthrope puede deshabilitar su uso de sus datos para la capacitación de inteligencia artificial. Los nuevos usuarios podrán deshabilitar esta opción durante el registro.

Cuando se muestra la ventana titulada «Términos y actualizaciones de políticas del consumidor», puede evitar el uso de chats eliminando el signo de la opción «Puede ayudar a mejorar Claude». Si acepta esta nueva política, Anthrope utilizará todas sus conversaciones nuevas o continuas. Para continuar usando Claude, debe especificar la opción de aceptar o rechazar hasta el 28 de septiembre de 2025. Si no desea que sus datos se incluyan en el proceso de capacitación, puede ir a la sección Configuración de Claude y seleccionar la opción de privacidad y eliminar la ayuda de Claude para mejorarlo ”.

Según Anthrope, esta nueva política educativa permitirá a la compañía ofrecer modelos de inteligencia artificiales más talentosos y útiles. Sin embargo, la compañía también apoyará el fortalecimiento de las medidas de protección contra usos dañinos como fraude y abuso.

Las condiciones actualizadas son válidas para todos los usuarios en planes Claude Free, Pro y Max, mientras que el plan para los servicios en condiciones comerciales como Claude para el trabajo o Claude para la educación no es válido. Del mismo modo, las condiciones que se actualizan para su uso a través de terceros como Amazon Bedrock y Vertex AI de Google Cloud para el uso comercial de antrópico, como el uso de API, no son válidos.

Hasta ahora, Anthrope no ha utilizado las conversaciones y datos de los usuarios para capacitar o mejorar Claude a menos que los usuarios envíen comentarios. Incluso se describió a sí mismo como una compañía de inteligencia artificial ética que se preocupaba por la confidencialidad y afirmaba que estaba separado de OpenAI.

Con esta nueva actualización, Anthrope extiende el tiempo de almacenamiento de datos a cinco años, así como el uso de textos de chat para entrenar a Claude. Agreguemos que los chats eliminados no se utilizarán para una futura capacitación de modelos. Anthrope continuará almacenando información para aquellos que no permiten compartir datos para la capacitación durante 30 días. Según antrópico; Se utilizará una combinación de herramientas y procesos automáticos para filtrar datos precisos y no proporcionará ninguna información a terceros.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept