Anteriormente, Mark Zuckerberg, consejero delegado de Meta, había declarado que Llama, la familia de modelos de inteligencia artificial de código abierto de Meta, no era una fuente directa de ingresos para la empresa. Sin embargo, nuevos documentos presentados recientemente ante el tribunal en el caso de derechos de autor Kadrey contra Meta revelan claramente que Meta comparte ingresos con algunos de sus socios comerciales. Los documentos presentados por los demandantes, de los que se han publicado partes previamente censuradas, revelan que Meta recibía una parte de los ingresos generados por los usuarios de plataformas que alojaban modelos Llama.
Aunque en los documentos no se especifica claramente de qué empresas de alojamiento recibe pagos Meta, algunas de las plataformas con las que la empresa ha colaborado en anteriores publicaciones del blog incluyen gigantes tecnológicos como AWS, Google Cloud, Azure, Dell, Databricks, Nvidia, Groq y Snowflake. Aunque estas empresas ofrecen modelos Llama a los desarrolladores a través de su propia infraestructura, también facilitan el uso del modelo proporcionando servicios y herramientas adicionales.
Mark Zuckerberg mencionó la posibilidad de conceder licencias de modelos Llama en una conferencia sobre beneficios celebrada en abril del año pasado. En aquella ocasión, afirmó que Meta esperaba obtener ingresos de las grandes empresas tecnológicas que utilizaran los modelos Llama con fines comerciales. En concreto, declaró que Meta exigiría compartir ingresos si empresas como Microsoft, Amazon y Google revendían estos servicios a terceros. Los documentos presentados en este caso confirman que tales acuerdos ya han comenzado.
Aunque los modelos Llama pueden ser descargados, personalizados y ejecutados de forma independiente por los desarrolladores, el uso del modelo a través de los principales proveedores de servicios en la nube sigue siendo una opción común debido a su practicidad. Meta, por su parte, genera ingresos indirectamente a través de este uso.
Por otro lado, Zuckerberg sostiene que el principal beneficio que Meta obtiene del proyecto Llama es el desarrollo de los modelos gracias a los comentarios y contribuciones de la comunidad de código abierto. Meta también utiliza los modelos Llama en sus propios productos. Estos modelos se utilizan en muchos productos, especialmente en Meta AI, el asistente de la empresa impulsado por IA.
Otra cuestión importante que salió a la palestra con los acuerdos de reparto de ingresos son las acusaciones de infracción de derechos de autor contra Meta. En el caso Kadrey contra Meta, se alega que la empresa ha entrenado modelos Llama con cientos de terabytes de libros electrónicos pirateados. Los demandantes afirman que Meta descargó estos contenidos mediante métodos secretos de torrents y, en el proceso, puso estos libros pirateados a disposición de otros usuarios debido a la naturaleza de la infraestructura de torrents. Esto significa que la empresa no sólo consume contenidos pirateados, sino que también los distribuye.
Meta sigue invirtiendo en inteligencia artificial en 2025
Meta planea invertir significativamente en su trabajo en el campo de la inteligencia artificial en 2025. Según la declaración realizada en enero, los gastos de capital de la empresa para 2025 se situarán entre 60.000 y 80.000 millones de dólares. Esta cantidad representa un aumento de casi el doble en comparación con 2024. Se afirma que la mayor parte de los gastos se destinarán a la ampliación de los centros de datos y los equipos de ingenieros que trabajan en el campo de la inteligencia artificial.
Además, se ha informado de que se está trabajando en un sistema de suscripción de pago que ofrecerá funciones adicionales al asistente Meta AI. Se informa de que este servicio de suscripción se considera parte de la estrategia para generar más ingresos a partir de soluciones basadas en inteligencia artificial. Todos estos avances demuestran que Meta está reestructurando su estrategia de IA de código abierto tanto en términos de desarrollo tecnológico como de sostenibilidad financiera.

