OpenAI ha puesto en marcha el primer modelo de inteligencia artificial que funciona en un entorno de producción con hardware que no es de Nvidia. La empresa ha puesto a disposición su nuevo modelo de codificación, denominado GPT-5.3-Codex-Spark, en los chips Wafer Scale Engine 3 (WSE-3) desarrollados por Cerebras. El modelo, que puede alcanzar una velocidad de producción de más de 1000 tokens por segundo, representa uno de los niveles de rendimiento más altos ofrecidos hasta ahora en la infraestructura de OpenAI. Sin embargo, la empresa no ha compartido con el público los datos detallados del rendimiento del modelo, que ha sido sometido a verificaciones independientes. No obstante, las cifras anunciadas apuntan a un salto notable, especialmente en escenarios en los que los retrasos son críticos, como en los procesos de desarrollo de software.
GPT-5.3-Codex-Spark se ofrece a los suscriptores de ChatGPT Pro (200 dólares al mes) como vista previa de investigación. Se puede acceder al modelo a través de la aplicación Codex, la interfaz de línea de comandos y el complemento VS Code. Además, se ha comenzado a proporcionar acceso a la API a socios seleccionados. El modelo, que en la fase de lanzamiento solo funciona con texto, viene con una ventana de contexto de 128 000 tokens. Aunque no ofrece soporte visual ni multimedia, su enfoque se centra directamente en los procesos de desarrollo de software.
OpenAI cambia de rumbo en su estrategia de hardware
Lo más llamativo de Codex-Spark no es solo el aumento de velocidad, sino también el cambio de rumbo de OpenAI en su estrategia de hardware. El modelo funciona con el chip WSE-3 de Cerebras, del tamaño de un plato. Este chip, con un diseño de silicio de una sola pieza, tiene como objetivo ofrecer una alta capacidad de procesamiento paralelo en los centros de datos. Cerebras había anunciado anteriormente que había alcanzado niveles de 2100 tokens por segundo en el modelo Llama 3.1 70B y de 3000 tokens en el modelo gpt-oss-120B de OpenAI. Sin embargo, el hecho de que Codex-Spark se mantenga en un nivel de 1000 tokens/segundo se debe a la carga de procesamiento derivada de la estructura más compleja del modelo.
Las medidas de OpenAI para reducir su dependencia de Nvidia se han acelerado en el último año. En octubre de 2025 se firmó un importante acuerdo plurianual con AMD y en noviembre se cerró un contrato de computación en la nube por valor de 38 000 millones de dólares con Amazon. Además, se sabe que la empresa ha diseñado su propio chip de inteligencia artificial y que está trabajando con TSMC para su producción. Por otra parte, se informa de que el acuerdo de infraestructura de 100 000 millones de dólares previsto con Nvidia no ha avanzado en la medida esperada, pero que, a pesar de ello, Nvidia se ha comprometido a invertir 20 000 millones de dólares. En una noticia publicada anteriormente por Reuters, se indicaba que OpenAI no estaba satisfecha con la velocidad de inferencia de algunos chips de Nvidia. Codex-Spark se centra precisamente en este tipo de cargas de trabajo que requieren un bajo retraso.
El rendimiento del modelo se basa en la afirmación de que ofrece mejores resultados que GPT-5.1-Codex-mini en comparativas de ingeniería de software como SWE-Bench Pro y Terminal-Bench 2.0. Sin embargo, el hecho de que no se hayan compartido los resultados de las pruebas independientes hace que los analistas del sector se muestren cautelosos. A pesar de ello, el nivel de 1000 tokens/segundo supone un aumento significativo en comparación con modelos como GPT-4o (147 tokens/segundo) y o3-mini (167 tokens/segundo) de OpenAI en sistemas basados en Nvidia.
Las herramientas de codificación asistidas por inteligencia artificial han comenzado a utilizarse ampliamente entre los desarrolladores de software en los últimos tiempos. Herramientas como OpenAI Codex y Anthropic Claude Code aceleran los procesos de desarrollo de prototipos y creación de interfaces. Sin embargo, el factor decisivo aquí no es solo la precisión, sino también el tiempo de latencia. Un modelo que responde más rápido acorta el ciclo de prueba y error del desarrollador. No obstante, el aumento de la velocidad puede provocar fluctuaciones en la calidad de los resultados en algunos casos.
El aumento del rendimiento que ofrece Codex-Spark conlleva la búsqueda de un nuevo equilibrio en las prácticas de desarrollo de software. Aunque la alta velocidad tiene el potencial de aumentar la productividad, la precisión y la gestión del contexto siguen siendo fundamentales en proyectos complejos. La diversidad en el ámbito del hardware demuestra que la competencia en el mercado de la inteligencia artificial no se limita únicamente a las capacidades de los modelos, sino que también son determinantes las preferencias de infraestructura y la optimización de costes. Este panorama apunta a que, en el futuro, las relaciones de las empresas de inteligencia artificial con los fabricantes de chips podrían caracterizarse por una estructura más flexible y con múltiples partes interesadas.
Teknoblogcomparte regularmente la actualidad tecnológica en diferentes plataformas. Transmite las noticias más destacadas al instante en su canal de WhatsApp, ofrece contenidos actualizados a través de Google Noticias, resume los titulares más llamativos en sus cuentas de Instagram y X, y completa el contenido con reseñas de productos y explicaciones detalladas en su canal de YouTube.
