Meta Acuerda Millones de CPUs AWS Graviton para Sus Crecientes Necesidades de IA

Resumen: Meta ha firmado un acuerdo con Amazon para utilizar millones de CPUs AWS Graviton, chips basados en ARM, impulsando así las necesidades de IA de la compañía.

Meta apuesta por CPUs de Amazon: el giro estratégico que redefine la infraestructura de la inteligencia artificial

Por MSB | Abril de 2026

En un movimiento que refleja la rápida evolución del ecosistema de inteligencia artificial, Meta ha firmado un acuerdo para utilizar millones de CPUs diseñadas por Amazon Web Services (AWS), marcando un cambio significativo en una industria históricamente dominada por las GPUs.

El acuerdo —considerado multimillonario y de varios años— posiciona a Meta como uno de los mayores clientes de los chips Graviton de Amazon, y señala una transformación profunda en cómo se construyen y escalan los sistemas de IA modernos.

Del dominio de las GPUs a una arquitectura híbrida

Durante la última década, la infraestructura de IA ha estado fuertemente asociada a GPUs, especialmente las de Nvidia, debido a su capacidad para acelerar el entrenamiento de modelos de machine learning.

Sin embargo, el acuerdo entre Meta y AWS introduce un matiz clave:
las CPUs vuelven a ganar protagonismo, pero en un rol diferente.

Los chips utilizados —AWS Graviton, basados en arquitectura ARM— no están diseñados principalmente para entrenar modelos, sino para ejecutar tareas posteriores al entrenamiento (post-training) como:

  • Inferencia en tiempo real
  • Ejecución de agentes autónomos
  • Orquestación de servicios de IA
  • Generación de código y razonamiento

Meta utilizará decenas de millones de núcleos Graviton para estas cargas de trabajo, lo que evidencia que la IA moderna ya no depende de un solo tipo de hardware.

¿Por qué CPUs para IA?

El movimiento puede parecer contraintuitivo, pero responde a una realidad técnica:

1. Diferencia entre entrenamiento e inferencia
  • Entrenamiento (training): requiere paralelismo masivo → GPUs
  • Inferencia y agentes: requieren eficiencia, latencia baja y flexibilidad → CPUs

En sistemas de IA avanzados —especialmente los llamados agentic AI— las cargas de trabajo son más dinámicas:

  • Toma de decisiones en tiempo real
  • Acceso a múltiples fuentes de datos
  • Coordinación entre procesos

En este contexto, las CPUs ofrecen ventajas clave:

  • Mejor gestión de tareas secuenciales
  • Menor consumo energético
  • Coste más bajo por operación
  • Escalabilidad más granular

Algunas estimaciones indican que este tipo de cargas puede ejecutarse con hasta un 60% menos de consumo energético en arquitecturas optimizadas de CPU.

El factor clave: escasez de GPUs

Otro elemento determinante es la limitación global de GPUs, que ha obligado a las grandes tecnológicas a diversificar su infraestructura.

  • Nvidia sigue dominando el mercado
  • Pero la demanda supera la oferta
  • Los costes son extremadamente elevados

Esto ha impulsado una estrategia clara en la industria:

👉 desacoplar el stack de IA en múltiples tipos de hardware

Meta, en particular, ya mantiene acuerdos paralelos con Nvidia, AMD y otros proveedores, lo que confirma una tendencia hacia arquitecturas heterogéneas.

AWS y la estrategia del silicio propio

Para Amazon, este acuerdo representa una victoria estratégica clave.

AWS lleva años invirtiendo en chips propios:

  • Graviton (CPU) → workloads generales y de inferencia
  • Trainium → entrenamiento de IA
  • Inferentia → inferencia optimizada

El objetivo es claro:
reducir dependencia de terceros (como Nvidia) y mejorar la eficiencia económica del cloud.

El negocio de chips de Amazon ya genera ingresos multimillonarios y se está convirtiendo en un pilar central de su estrategia en IA.

Meta: una infraestructura de IA a escala planetaria

Para Meta, el acuerdo responde a una necesidad estructural:

  • Modelos cada vez más grandes
  • Uso masivo en productos (Facebook, Instagram, WhatsApp)
  • Expansión hacia agentes inteligentes y automatización

Esto implica una presión enorme sobre la infraestructura:

  • Latencia baja para miles de millones de usuarios
  • Costes operativos controlados
  • Capacidad de escalar dinámicamente

El uso de CPUs optimizadas permite a Meta ejecutar IA “en producción” de forma más eficiente, especialmente en tareas repetitivas y distribuidas.

Un cambio de paradigma en la “guerra de chips”

El acuerdo también redefine la competencia en el sector:

Actor

Estrategia

Nvidia

Dominio en GPUs (training)

Amazon

Chips propios (CPU + AI stack)

Google

TPUs especializadas

Meta

Arquitectura híbrida multi-proveedor

Este nuevo escenario sugiere que la “guerra de chips” ya no se centra en un único componente, sino en ecosistemas completos de computación.

Conclusión: la IA ya no es solo cuestión de potencia, sino de arquitectura

El acuerdo entre Meta y Amazon marca un punto de inflexión:

  • La IA deja de ser exclusivamente GPU-céntrica
  • Las CPUs recuperan relevancia en el ciclo de vida del modelo
  • La eficiencia y el coste pasan a ser tan importantes como la potencia bruta

En definitiva, estamos entrando en una nueva fase:

👉 la optimización del stack de IA

Donde el éxito no dependerá únicamente de quién tenga los chips más potentes, sino de quién diseñe la arquitectura más inteligente.

Datos clave

  • Meta firmó un acuerdo para utilizar millones de chips AWS Graviton.
  • AWS Graviton es una CPU basada en ARM, no una GPU.
  • La nueva generación de agentes de IA exige cargas de trabajo de cómputo específicas.
  • Este acuerdo contrarresta la relación de Meta con Google Cloud.

¿Por qué importa?

Este movimiento subraya la evolución de la demanda de chips de IA más allá del procesamiento gráfico. La optimización de CPUs como Graviton demuestra cómo la infraestructura de cómputo se está diversificando para gestionar las complejidades de los agentes de IA. Para las empresas, esto señala la importancia de la arquitectura de chip específica para diferentes etapas del ciclo de vida de la IA.