Hyperscalers impulsan XPUs: Broadcom, TSMC y el posible desafío a Nvidia
Los movimientos recientes en la cadena de suministro de hardware para IA apuntan a una posible redistribución de poder en el mercado de aceleradores: grandes hyperscalers parecen preparar diseños propios de chips (XPUs) y encargarlos a fabricantes como Broadcom y TSMC en lugar de depender exclusivamente de Nvidia. La información pública hasta ahora es fragmentaria y a menudo confidencial, pero varios indicadores —declaraciones financieras de Broadcom, reportes de prensa y filtraciones sobre acuerdos con TSMC y proveedores de memoria— dibujan un panorama con implicaciones técnicas y geoestratégicas importantes.
Qué dijo Broadcom y por qué importa
En la presentación de resultados del cuarto trimestre de 2024, el CEO de Broadcom, Hock Tan, afirmó que tres hyperscalers tienen planes para desplegar, cada uno, alrededor de un millón de clusters XPU en sus centros de datos para 2027. Broadcom también reportó un crecimiento muy rápido en sus ventas relacionadas con productos semiconductores de IA: aproximadamente 1,94 mil millones de dólares en 2022, 3,8 mil millones en 2023 y cerca de 12,2 mil millones en 2024. Ese salto sugiere contratos a gran escala y el encargo de diseños personalizados por parte de clientes con capacidad para desarrollar sus propias arquitecturas.
Quiénes podrían ser los customers y qué están buscando
Broadcom mantuvo en secreto los nombres, pero el perfil del cliente descrito (hyperscalers con enormes presupuestos y experiencia en diseño) encaja con empresas como Google, Meta, Bytedance, OpenAI y Apple. Varias fuentes y reportes periodísticos han vinculado a OpenAI con acuerdos en desarrollo —incluida la intención de fabricar aceleradores de entrenamiento en procesos avanzados de TSMC— y hay indicios de colaboraciones de Broadcom con clientes chinos como Bytedance.
- OpenAI: reportes indican colaboración con Broadcom y Marvell para diseñar aceleradores, y negociación de capacidad en TSMC (incluyendo interés en el proceso A16).
- Google/Meta/Apple/Bytedance: todos ellos ya han invertido en chips propios (TPUs, NPUs, XPUs) y podrían ser parte de los acuerdos mencionados.
- Microsoft/AWS: si bien son grandes clientes de Nvidia, también buscan diversificar y han trabajado con Marvell y otros proveedores para acelerar cargas específicas.
Arquitectura, procesos y memoria: los factores técnicos clave
Diseñar un acelerador de IA moderno implica mucho más que las unidades de cómputo (MACs). Importan especialmente la integración de memoria de alta velocidad, el enrutamiento de interconexión, la gestión térmica y las latencias entre chiplets. En ese contexto, Broadcom resalta su experiencia en integración de memoria y redes, mientras que Marvell aporta know‑how en soluciones multi‑chip y chiplets.
TSMC entra como socio estratégico de fabricación. Informes indican que OpenAI habría asegurado capacidad tanto en N3 (3 nm) como en un proceso avanzado denominado A16 (anteriormente “1.6 nm” o “next‑but‑one”), que combina transistores de tipo nanosheet (N2) con una alimentación posterior (backside power) para mejorar propiedades eléctricas. TSMC planea producir en masa A16 a partir de la segunda mitad de 2026, lo que encaja con calendarios de despliegue de aceleradores de nueva generación.
HBM y el cuello de botella de memoria
La memoria de ancho de banda elevado (HBM) es crítica para entrenamiento de grandes modelos. Broadcom habría contactado a SK Hynix para suministrar HBM a sus clientes, lo que ya estaría obligando a SK Hynix a reajustar capacidades de producción y, según reportes, podría afectar calendarios de lanzamiento de sus propias generaciones de DRAM (1c). Este tipo de desvío de suministro puede crear tensiones en la cadena que repercutan en disponibilidad y precios de módulos HBM para otras partes (incluyendo Nvidia).
Implicaciones competitivas para Nvidia
Si hyperscalers con gran demanda adoptan diseños propios manufacturados por TSMC y con integración de Broadcom/Marvell, Nvidia perdería parte de su rol de proveedor de aceleradores de centro de datos. Esa pérdida se volvería más crítica cuando además se consideran restricciones de exportación de EE. UU. hacia China, que ya limitan el mercado potencial de Nvidia en determinados segmentos.
- Reducción de dependencia: clientes que diseñan XPUs para uso interno reducen compras de GPUs comerciales.
- Presión en precio y diferenciación: soluciones a medida pueden optimizar redes, memoria y costes operativos, presionando márgenes de Nvidia.
- Riesgos de suministro compartido: competencia por HBM y capacidad de TSMC puede crear cuellos de botella que afecten a todos los actores.
Cadena de suministro y riesgos operativos
El ecosistema que se está formando depende fuertemente de unos pocos actores: Broadcom y Marvell para diseño/integración, TSMC para la fabricación avanzada y SK Hynix/Samsung para HBM. Eso concentra el riesgo en tres frentes:
- Capacidad de TSMC: la asignación de obleas en procesos N3/A16 condiciona quién puede producir chips de vanguardia y cuándo.
- Producción de HBM: cualquier desviación en producción por parte de SK Hynix o Samsung puede retrasar despliegues masivos.
- Geopolítica y export controls: restricciones a la exportación afectan la capacidad de vender a ciertos mercados, lo que puede forzar rediseños o limitar mercados.
¿Qué papel juegan Broadcom y Marvell?
Broadcom ofrece experiencia en redes y en integración de memoria, dos atributos críticos para aceleradores de entrenamiento a gran escala donde la interconexión y la gestión de datos son tan importantes como la potencia de cálculo bruta. Marvell, por su parte, destaca en diseño multi‑chip y en programas personalizados con partners. Ambas compañías actúan como intermediarias tecnológicas: ayudan a hyperscalers a llevar un diseño interno desde el concepto hasta la línea de producción en TSMC.
Calendario estimado y próximos hitos
- 2024: Broadcom reporta un salto en ingresos de IA que sugiere contratos a gran escala.
- 2025: expectativa de incrementos en diseño y pruebas internas de XPUs; posibles despliegues iniciales en centros de datos.
- Segunda mitad de 2026: TSMC planea iniciar producción masiva en A16; si OpenAI y otros son clientes de A16, podrían disponer de aceleradores muy avanzados a partir de entonces.
- 2027: objetivo declarado por Broadcom de tener hyperscalers con ~1 millón de clusters XPU cada uno desplegados (plazo ambicioso sujeto a capacidad de fab, HBM y validación de software/hardware).
Conclusión: ¿desplaza esto a Nvidia?
El escenario planteado no garantiza la desaparición de Nvidia como actor dominante: su ecosistema de software (CUDA), su línea probada de GPUs y su posición en muchos contratos empresariales siguen siendo fuertes ventajas. Sin embargo, el movimiento de hyperscalers a diseños propios, apoyados por Broadcom/Marvell y fabricados por TSMC, representa una amenaza real a medio plazo que podría fragmentar el mercado de aceleradores. En juego están no solo la arquitectura de cálculo, sino la disponibilidad de HBM, la capacidad de proceso de TSMC, y factores geopolíticos que condicionan mercados estratégicos.
Qué vigilar en los próximos meses
- Confirmaciones oficiales de clientes en los anuncios de Broadcom y TSMC (nombres y volúmenes).
- Publicaciones técnicas o demostraciones de rendimiento de los nuevos XPUs y su ecosistema software.
- Movimientos de capacidad en SK Hynix y Samsung respecto a HBM; fechas de lanzamiento de DRAM 1c y producción A16 en TSMC.
- Políticas de compra de hyperscalers (qué fracciones de su parque irán a XPUs vs GPUs comerciales) y acuerdos de colaboración con proveedores como Broadcom/Marvell.
En conjunto, estamos ante una fase de reconfiguración de la cadena de valor de la infraestructura de IA: más diseños a medida, mayor dependencia de socios de integración y de foundries avanzadas, y una competencia que dejará de ser puramente de producto para ser también estratégica y de control de la cadena de suministro.
