OpenAI fecha acordos bilionários para turbinar chips de IA — e deixa gigantes de fora
A OpenAI acelerou sua estratégia para garantir poder computacional em larga escala e diversificar além da Nvidia. Em uma série de acordos anunciados desde 2024, a empresa firmou parcerias com fabricantes de chips e provedores de nuvem que somam dezenas de bilhões de dólares — com impactos diretos no mercado de IA e no ecossistema de data centers nos EUA.
Nvidia segue central, mas OpenAI amplia o leque
Desde os primeiros modelos de linguagem, a OpenAI roda em GPUs da Nvidia. Em 2025, a relação subiu de patamar: após um investimento no fim de 2024, a Nvidia anunciou em setembro um compromisso de US$ 100 bilhões para apoiar a OpenAI na construção e operação de ao menos 10 gigawatts (GW) em sistemas Nvidia. Segundo a própria Nvidia, isso pode equivaler a 4 a 5 milhões de GPUs. A primeira fase, na plataforma Vera Rubin, tem previsão de entrar no ar no segundo semestre deste ano. A Nvidia, porém, indicou em teleconferência que não há garantia de avanço para um contrato definitivo além do anúncio. O primeiro desembolso de US$ 10 bilhões ocorreria com a conclusão do primeiro 1 GW.
Em paralelo, a OpenAI firmou, em outubro, um plano com a AMD para implantar 6 GW de GPUs ao longo de múltiplos anos e gerações de hardware. O acordo inclui um warrant que dá à OpenAI o direito a até 160 milhões de ações da AMD, potencialmente cerca de 10% da companhia, com metas de aquisição e preço. O primeiro 1 GW deve ser entregue no segundo semestre de 2026. A CEO Lisa Su destacou a importância de parcerias para acelerar o ecossistema.
No mesmo período, Broadcom entrou como parceira de chips customizados. A OpenAI está desenhando seus próprios aceleradores de IA e sistemas, que serão desenvolvidos e distribuídos pela Broadcom — com meta de 10 GW implantados até o fim de 2029. A empresa planeja iniciar a instalação de racks de aceleradores e redes no segundo semestre deste ano. O CEO Hock Tan afirmou que a jornada é plurianual e não espera receita relevante do acordo em 2026. Os valores não foram revelados.
Entrada da Cerebras e movimentos na nuvem
Na quarta-feira, a OpenAI anunciou um acordo superior a US$ 10 bilhões com a Cerebras para 750 megawatts (MW) em chips de IA, em fases até 2028. A Cerebras fabrica processadores em escala de wafer e alega respostas até 15 vezes mais rápidas que sistemas baseados em GPUs. O contrato é visto como um impulso para a empresa, que avalia abrir capital após adiar uma oferta pública e enfrentar dependência de um único cliente no Oriente Médio.
Na nuvem, a OpenAI assinou um acordo de US$ 38 bilhões com a Amazon Web Services (AWS) para rodar cargas de trabalho em data centers existentes e expandir infraestrutura dedicada. A Amazon negocia investir mais de US$ 10 bilhões na OpenAI, e o uso de chips proprietários da AWS — Inferentia e a geração mais recente do Trainium, anunciada no fim de 2025 — está na mesa, mas sem definição.
O Google Cloud também fornece capacidade de computação após um acordo fechado em 2024, porém a OpenAI disse em junho não ter planos de usar os TPUs do Google (produzidos com apoio da Broadcom).
E a Intel?
A Intel ficou para trás na corrida de IA. Segundo a Reuters, a empresa teria recusado anos atrás a chance de investir na OpenAI e fabricar hardware para a startup. Em outubro, a Intel anunciou a GPU de data center “Crescent Island”, voltada para inferência, com amostras previstas para o segundo semestre de 2026. O mercado espera novas atualizações nos próximos resultados trimestrais.
Para a comunidade brasileira nos EUA, os acordos indicam mais oferta de serviços de IA, potencial redução de gargalos de computação e novas oportunidades em nuvem, semicondutores e empregos qualificados. Ao mesmo tempo, os investimentos em gigawatts de capacidade levantam atenção sobre consumo de energia, expansão de data centers e impactos regulatórios em estados que disputam esses projetos.

