Amazon Web Services (AWS) anunció una serie de innovaciones en el campo de la inteligencia artificial (IA) en la conferencia re:Invent celebrada en Las Vegas, EE.UU. Estas innovaciones arrojan luz sobre los objetivos a largo plazo de la empresa para las plataformas de IA.
AWS presentó su última generación de chips de IA diseñados principalmente para el entrenamiento de modelos y la ejecución de modelos entrenados. Trainium2 está diseñado para el entrenamiento de modelos y ofrece un rendimiento 4 veces mejor y una eficiencia energética 2 veces mayor que su predecesor. Amazon promete que estos chips permitirán a los programadores entrenar modelos más rápido y a menor costo. Anthropic, rival de OpenAI, respaldado por Amazon, ya ha anunciado planes para construir modelos utilizando chips Trainium2.
Por otro lado, Graviton4 es más adecuado para uso general. Estos procesadores se basan en la arquitectura Arm pero consumen menos energía que los chips Intel o AMD. Amazon promete un aumento del 30 por ciento en el rendimiento general cuando se utiliza un modelo de IA entrenado con el procesador Graviton4. Esto podría reducir los costos de computación en la nube para las organizaciones que utilizan regularmente modelos de IA y proporcionar un pequeño aumento en la velocidad para los usuarios ocasionales.
Se espera que Graviton4 ofrezca a los clientes de AWS la capacidad de «procesar mayores cantidades de datos, escalar cargas de trabajo, mejorar el tiempo para obtener resultados y reducir el costo total de propiedad». Actualmente disponible en versión preliminar, este procesador se lanzará en una versión más amplia en los próximos meses.
Cuando una empresa anuncia sus propios chips internos, esto suele significar problemas para los proveedores externos existentes. NVIDIA es un actor importante en el espacio de la IA empresarial, y las empresas utilizan sus GPU para capacitación y su CPU Grace para centro de datos basada en Arm. Pero en lugar de abandonar la asociación en favor de chips especializados, Amazon está consolidando aún más la colaboración ofreciendo a los clientes empresariales acceso en la nube a las últimas GPU H200 AI de NVIDIA. También operará más de 16.000 Superchips Nvidia GH200 Grace Hopper exclusivamente para el equipo de investigación y desarrollo de NVIDIA. Este enfoque es similar al de su principal rival en inteligencia artificial (IA), Microsoft, que anunció una asociación mejorada con Nvidia cuando presentó su propio chip dedicado a IA, el Maia 100.
Además, Amazon también anunció un nuevo chatbot de IA centrado en los negocios llamado Q. Q, que lleva el nombre del semidiós de Star Trek, fue diseñado específicamente para agilizar proyectos de trabajo y tareas de servicio al cliente. Puede adaptarse a cualquier negocio y ofrecer respuestas relevantes a preguntas frecuentes. Amazon Q también puede generar contenido por sí solo y tomar acciones basadas en las solicitudes de los clientes. Puede personalizar las interacciones según el rol del usuario dentro de la empresa.
Q estará disponible en aplicaciones de comunicación como Slack y aplicaciones de edición de texto utilizadas frecuentemente por los desarrolladores de software. En este sentido, Q puede modificar el código fuente y conectarse a más de 40 sistemas empresariales, incluidos Microsoft 365, Dropbox, Salesforce y Zendesk. Amazon Q está actualmente disponible en versión preliminar y pronto se lanzará en una versión más amplia. Costará entre 20 y 30 dólares por usuario al mes, dependiendo de las funciones disponibles.
Amazon, como todos los demás, está invirtiendo mucho en inteligencia artificial. Además, está compitiendo con el antiguo rival de la nube, Microsoft, para convertirse en la empresa elegida para la IA empresarial. También espera mantener su dominio en el espacio de la computación en la nube mediante el uso de IA y minimizar cualquier aumento en la participación de mercado de otros actores como Microsoft, Google y Alibaba.
