Meta firma acordo bilionário com Nvidia para adquirir chips de IA e reforçar data centers

Meta e Nvidia selaram um acordo bilionário para o fornecimento de milhões de chips de IA, iniciativa que une as duas gigantes em um plano de longo prazo para elevar a capacidade de processamento, eficiência energética e segurança dos data centers da empresa de mídia social.
- Escala financeira e estratégica do acordo entre Meta e Nvidia em chips de IA
- Portfólio de hardware: CPUs Grace, futuras Vera e GPUs Blackwell e Rubin integram o pacote de chips de IA
- Infraestrutura de data centers da Meta recebe expansão alinhada a chips de IA
- Integração técnica: codesign otimiza modelos de IA e eficiência energética
- Estratégia diversificada, mas Nvidia permanece como fornecedora central de chips de IA
- Projeções de capacidade: energia, desempenho e cronograma até 2028
Escala financeira e estratégica do acordo entre Meta e Nvidia em chips de IA
O novo contrato, classificado por analistas como um investimento de “dezenas de bilhões de dólares”, consolida uma colaboração já existente entre Meta e Nvidia, mas agora em proporção inédita. Mesmo sem cifras oficiais divulgadas, a estimativa de mercado destaca a negociação como peça central do programa da Meta de aplicar até US$ 600 bilhões em infraestrutura nos Estados Unidos até 2028. Dentro desse horizonte de investimentos, a companhia tem planejado desembolsar até US$ 135 bilhões especificamente em iniciativas de inteligência artificial até 2026. O pacto com a Nvidia posiciona-se, portanto, como alicerce fundamental para atingir essas metas, garantindo disponibilidade de hardware de ponta em um momento de alta demanda por chips de IA.
Portfólio de hardware: CPUs Grace, futuras Vera e GPUs Blackwell e Rubin integram o pacote de chips de IA
O ponto central do acordo gira em torno da aquisição de componentes de várias gerações. A Meta utilizará, pela primeira vez em grande escala, as CPUs Nvidia Grace como processadores independentes em seus servidores, sem a necessidade de integração obrigatória com GPUs. Essa adoção promete ganhos de performance por watt, reforçando a busca por eficiência operacional. O cronograma prevê ainda a chegada das futuras CPUs Vera, com possibilidade de implantação em 2027, ampliando a trajetória de atualização de hardware.
No universo gráfico, a negociação contempla milhões de GPUs das famílias Blackwell e Rubin, além de sistemas desenvolvidos sobre a plataforma Vera Rubin. Essas arquiteturas reforçarão tanto as fases de treinamento quanto de inferência de modelos de IA em larga escala. A diversificação de gerações garante longevidade ao investimento e flexibilidade para a Meta alinhar a infraestrutura a ciclos de evolução da tecnologia de IA.
Infraestrutura de data centers da Meta recebe expansão alinhada a chips de IA
O acordo assenta-se sobre uma malha de data centers que a Meta pretende ampliar para cerca de 30 unidades, das quais 26 ficam em território norte-americano. Entre os complexos em andamento destacam-se os projetos Prometheus, localizado em Ohio, e Hyperion, na Louisiana. A integração das CPUs Grace, das futuras Vera e das GPUs Blackwell e Rubin ocorrerá nesses ambientes, beneficiando-se da rede Spectrum-X Ethernet, projetada para interligar grandes volumes de GPUs com baixa latência.
Além de performance, há atenção à segurança. A combinação do hardware Nvidia com recursos de Confidential Computing deve proteger operações sensíveis, como as rotinas de IA em serviços de mensagens da Meta. Um dos casos citados é a implementação de proteção de dados em tarefas de IA executadas no WhatsApp, reforçando privacidade dos usuários a partir da infraestrutura física.
Integração técnica: codesign otimiza modelos de IA e eficiência energética
A engenharia conjunta — descrita pelas empresas como atividade de codesign — será responsável por alinhar processadores, GPUs, rede e software. Esse método colaborativo visa reduzir gargalos de energia e minimizar custos de operação ao longo da vida útil dos equipamentos. A perspectiva de “performance por watt” foi realçada porque as CPUs Grace, ao operarem de forma autônoma, liberam a arquitetura dos servidores para combinações modulares. Dessa forma, a Meta consegue ajustar o balanceamento entre CPU e GPU conforme a necessidade de cada carga de trabalho, seja em treinos extensos de modelos ou em inferência em tempo real.
Numa segunda frente, a presença futura das CPUs Vera e das GPUs Rubin sinaliza um caminho de evolução contínua. A possibilidade de atualizar data centers já existentes, adicionando novas gerações de chips sem reconstruções completas, representa economia de escala e prolonga a validade do investimento inicial feito agora.

Imagem: Nor Gal
Estratégia diversificada, mas Nvidia permanece como fornecedora central de chips de IA
Embora a relação histórica entre Meta e Nvidia seja consolidada, a companhia de mídia social mantém uma estratégia que contempla múltiplos fornecedores. A Meta desenvolve seus próprios chips e mantém parcerias com a AMD. Também já avaliou eventuais usos de processadores Tensor, do Google, para futuras implantações. Ainda assim, o novo contrato confirma a Nvidia como principal pilar da infraestrutura de IA da empresa, sobretudo pela capacidade de entrega em larga escala e pelo roadmap alinhado a necessidades de treinamentos volumosos de modelos.
Para a Nvidia, o acerto reforça sua posição dominante no fornecimento de GPUs voltadas a IA e inaugura um capítulo em que suas CPUs Grace ganham vida própria em ambientes de produção massiva. Esse movimento amplia o ecossistema da companhia, que passa a atuar, ao mesmo tempo, nos domínios de processamento central, gráfico e de rede, todos dentro de ambientes empresariais de grande porte.
Projeções de capacidade: energia, desempenho e cronograma até 2028
As metas da Meta indicam que, até 2028, a empresa quer dispor de uma malha de servidores capaz de suportar recursos avançados de IA em diversas plataformas proprietárias. A adoção da rede Spectrum-X Ethernet, destinada a conectar vastos conjuntos de GPUs, complementa o esforço de escalabilidade. Em cada etapa, o objetivo central é melhorar a eficiência energética, um fator crítico diante da expansão de data centers. O relacionamento prolongado com a Nvidia, estruturado em várias gerações de chips, favorece planejamento financeiro e técnico para atingir marcos internos de consumo por desempenho.
No curto prazo, o foco recai sobre a implementação das CPUs Grace e das GPUs Blackwell, enquanto as CPUs Vera e as GPUs Rubin permanecem no horizonte de médio prazo, com janela provável de adoção em 2027. Essa linha do tempo garante previsibilidade de hardware, condição essencial para o desenvolvimento de modelos de IA que dependem de continuidade em poder de processamento para treinos sucessivos.
O próximo passo concreto dessa parceria será a chegada das primeiras unidades das CPUs Nvidia Grace aos data centers da Meta, etapa que inicia o calendário de implantação definido pelas empresas.

Olá! Meu nome é Zaira Silva e sou apaixonada por tornar a vida mais leve, prática e organizada — especialmente depois que me tornei mãe.
Criei o Organiza Simples como um cantinho acolhedor para compartilhar tudo o que aprendi (e continuo aprendendo!) sobre organização da casa, da rotina e da mente, sem fórmulas impossíveis ou metas inalcançáveis.
Mães ambulantes exigem pontos de apoio para crianças no carnaval e expõem desafios invisíveis
Pacientes no Sambódromo: balanço oficial registra 2.843 atendimentos e 167 transferências no Carnaval 2026
Monitoramento de fluxo em tempo real em Veneza redefine a convivência entre moradores e visitantes
Concurso Nacional Unificado: resultados de 2025 saem hoje e cronograma de convocações é detalhado
Bloco Mulheres Rodadas transforma carnaval do Rio em palco contra o feminicídio e homenageia Maria da Penha
Conteúdo Relacionado