Tem um detalhe técnico que quase ninguém fora do setor de semicondutores entende mas define a velocidade real de cada nova geração de modelo de IA: chama-se CoWoS — Chip on Wafer on Substrate.
É a tecnologia de packaging avançado da TSMC que cola o chip lógico (GPU) e a memória de alta largura de banda (HBM) num mesmo substrato 2.5D. Sem CoWoS, modelos como GPT-5.5 e Claude Opus 4.7 simplesmente não existiriam na escala atual. O servidor não conseguiria alimentar a GPU rápido o suficiente.
O memory wall — e como o CoWoS o derrubou
Por décadas, GPUs e CPUs eram limitados por algo chamado memory wall: a memória RAM tradicional fica longe do chip, conectada por canais relativamente lentos. Cada acesso a memória custa centenas de ciclos de espera.
CoWoS resolveu esse problema com uma camada extra chamada interposer — basicamente um chip de roteamento de altíssima densidade que coloca o HBM literalmente ao lado da GPU. A distância de microsegundos vira nanossegundos.
A Nvidia Blackwell foi o primeiro produto comercial fabricado na nova geração CoWoS-L. E aqui está a parte política: a Nvidia reservou a maior parte da capacidade dessa nova linha. Ou seja, mesmo que a Anthropic, Meta ou OpenAI quisessem fabricar GPUs próprios neste packaging, não conseguiriam — Jensen Huang chegou primeiro com cheque maior.
Por que made in USA não basta
Aqui está o twist. Mesmo chips fabricados na Arizona precisam voltar pra Taiwan pra fazer packaging.
- Wafer fabrication (transformar areia em chip lógico) — pode ser feito em Arizona
- Advanced packaging (CoWoS, juntar GPU + HBM) — só Taiwan tem capacidade
Resultado: cada GPU H200 ou B200 atualmente passa por essa round trip Taiwan → Arizona → Taiwan → mundo. Isso adiciona semanas ao lead time e dependência geopolítica que o capex bilionário do Arizona ainda não resolveu.
O que isso significa pra você
Três efeitos práticos no curto prazo:
- Preços de GPU enterprise ficam altos enquanto CoWoS for gargalo
- Hyperscalers (AWS, Azure, GCP) negociam acesso prioritário a CoWoS — quem alugar GPU em cloud paga essa mão invisível
- Soluções alternativas (Groq, Cerebras) que não dependem de CoWoS ganham relevância em workloads específicos
Pra desenvolvedores e criadores que dependem de inference: vale ter um plano B. Não pra hoje, mas pros próximos 12-18 meses se a tensão Taiwan-China se intensificar.
Fontes
- CNBC (8 de abril, 2026): AI's next bottleneck: Why even the best chips made in the U.S. take a round trip to Taiwan
- Digitimes (7 de abril, 2026): Global AI chip suppliers compete as TSMC remains top foundry partner
- Next Platform (20 de abril, 2026): AI Will Soon Drive A Third Of TSMC's Business