Los términos de uso de Microsoft enfatizan que Copilot es para «fines únicamente de entretenimiento»

Microsoft ha sido objeto de críticas en las redes sociales debido a los términos de uso de Copilot, que se actualizaron por última vez el 24 de octubre de 2025. La compañía, en el artículo bajo una sección titulada «Divulgaciones y advertencias importantes»«Copilot es sólo para fines de entretenimiento» advierte. Los términos de uso de Copilot también incluyen las siguientes declaraciones:

Puede cometer errores y no funcionar según lo previsto. No confíe en Copilot para obtener consejos importantes. Utilice Copilot bajo su propia responsabilidad.

El mismo documento establece que Microsoft no ofrece garantías ni representaciones sobre Copilot, que los usuarios no deben asumir que la producción de Copilot está libre de violaciones de derechos de autor, marcas registradas o derechos de privacidad, y que los usuarios son enteramente responsables del contenido de Copilot que eligen compartir o publicar. Nos gustaría señalar que estas condiciones se aplican a los productos Copilot dirigidos a consumidores. Microsoft 365 Copilot para uso corporativo está excluido de este artículo.

Microsoft, que lleva años presentando agresivas actividades promocionales centradas en Copilot, casi se contradice con esta advertencia. Al integrar Copilot en la suite Windows 11 y Microsoft 365 en 2023, la empresa posicionó esta herramienta como un asistente de inteligencia artificial para usuarios de Word, Excel, PowerPoint y Outlook. Si bien Nadella afirmó que Copilot se ha convertido en un verdadero hábito diario, dijo a los inversores El número de usuarios activos diarios casi se triplicó respecto al año anterior explicado.

Sin embargo, la empresa asignó aproximadamente 80 mil millones de dólares para gastos de capital relacionados con la inteligencia artificial en el año fiscal 2025. La cantidad en cuestión también incluye una inversión de 13 mil millones de dólares en OpenAI. En este punto cabe señalar que OpenAI desarrolló los modelos utilizados por Copilot.

Los analistas legales que han examinado este lenguaje han dicho comúnmente que la cláusula relevante es un intento de limitar la responsabilidad en los casos en que el producto falla. También se cree que esta expresión es el resultado de una corrección excesiva.

En un comunicado, un portavoz de Microsoft describió este artículo como «declaración antigua» y afirmó que la empresa actualizaría el texto. El portavoz dijo en su comunicado:

A medida que el producto ha evolucionado, esta declaración ya no refleja cómo se usa Copilot hoy y se cambiará en nuestra próxima actualización.

Microsoft no es la única empresa que utiliza este tipo de descargo de responsabilidad para la IA, señala Tom’s Hardware. Si bien OpenAI aconseja a los usuarios que no vean sus resultados como «la única fuente de información verdadera o fáctica», xAI advierte a los usuarios que no vean sus resultados como «verdad». Asimismo, nos gustaría señalar que Anthropic y Google también agregaron advertencias similares a sus términos de servicio, reconociendo inexactitudes e incluyendo declaraciones que responsabilizan a los usuarios de verificar la salida. Sin embargo, es posible decir que ninguna de estas empresas utiliza la frase únicamente con fines de entretenimiento.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept