A Nvidia está buscando reduzir sua dependência de grandes empresas de tecnologia, impressionando novas parcerias para vender seus chips de inteligência artificial para estados nacionais, grupos corporativos e desafiantes a grupos como Microsoft, Amazon e Google.
Nesta semana, a gigante americana de chips anunciou um acordo de chip de bilhões de dólares nos EUA com o Humanin da Arábia Saudita, enquanto os Emirados Árabes Unidos anunciaram planos de construir um dos maiores centers de dados mundiais em coordenação com o governo dos EUA, pois os estados do Golfo planejam construir infraestrutura de IA maciça.
Essas ofertas de “AI soberana” formam uma parte crucial da estratégia da NVIDIA de cortejar clientes muito além do Vale do Silício. Segundo os executivos da empresa, especialistas e analistas do setor, o fabricante de chips de US $ 3,2TN tem a intenção de construir seus negócios além dos chamados hiperescaladores-grandes grupos de computação em nuvem que a NVIDIA disse que mais da metade de suas receitas de data center.
A empresa americana está trabalhando para reforçar os possíveis rivais para os serviços da Web da Amazon, o Azure da Microsoft e o Google Cloud. Isso inclui a fabricação de “Neoclouds”, como CoreWeave, Nebius, Crusoe e Lambda, parte de sua crescente rede de “Nvidia Cloud Partners”.
Essas empresas recebem acesso preferencial aos recursos internos do fabricante de chips, como suas equipes que aconselham como projetar e otimizar seus data centers para seus equipamentos especializados.
A NVIDIA também facilita para seus parceiros em nuvem trabalhar com os fornecedores que integram seus chips em servidores e outros equipamentos de data center, por exemplo, acelerando o processo de compra. Em alguns casos, a NVIDIA também investiu em neoclouds, incluindo CoreWeave e Nebius.
Em fevereiro, o fabricante de chips anunciou que o CoreWeave era “O primeiro provedor de serviços em nuvem Para disponibilizar a plataforma NVIDIA Blackwell geralmente ”, referindo -se à sua mais recente geração de processadores para data centers de IA.
Nos últimos meses, a NVIDIA também atingiu alianças com fornecedores, incluindo Cisco, Dell e HP, para ajudar a vender aos clientes corporativos, que gerenciam sua própria infraestrutura corporativa de TI, em vez de terceirizar a nuvem.
“Estou mais certo [about the business opportunity beyond the big cloud providers] hoje do que eu tinha um ano atrás ”, disse o executivo -chefe da NVIDIA, Jensen Huang, ao Financial Times em março.

A turnê de Huang pelo Golfo nesta semana ao lado do presidente dos EUA, Donald Trump, mostrou uma estratégia que a empresa deseja replicar em todo o mundo.
Os analistas estimam que os acordos com a nova empresa de IA da Arábia Saudita, Humain, e os planos da empresa AI da Emirati AI G42 para um gigante data center em Abu Dhabi adicionarão bilhões de dólares às suas receitas anuais. Os executivos da NVIDIA dizem que foi abordado por vários outros governos para comprar seus chips para projetos de IA soberanos semelhantes.
Huang está se tornando mais explícito sobre os esforços da Nvidia para diversificar seus negócios. Em 2024, o lançamento de seus chips Blackwell foi acompanhado pelo suporte a citações de todas as grandes empresas de tecnologia. Mas quando a Huang apresentou seu sucessor, Rubin, em sua conferência GTC em março, esses aliados eram menos visíveis durante sua apresentação, substituídos por artistas como CoreWeave e Cisco.
Ele disse no evento que “todo setor” teria suas próprias “fábricas de IA”-instalações criadas para propósitos dedicados a seus chips poderosos-o que representa uma nova oportunidade de vendas que se destaca nas centenas de bilhões de dólares.
O desafio para a Nvidia, no entanto, é que grandes empresas de tecnologia são as “únicas que podem monetizar a IA de forma sustentável”, de acordo com um executivo do Neocloud que trabalha em estreita colaboração com o fabricante de chips. “O mercado corporativo pode ser a próxima fronteira, mas ainda não está lá”.
As vendas de data centers corporativas dobraram ano após ano no trimestre fiscal mais recente da Nvidia, terminando em janeiro, enquanto os provedores regionais de nuvem adotaram uma maior parte de suas vendas. No entanto, a NVIDIA alertou os investidores em registros regulatórios de que ainda depende de um “número limitado de clientes”, acredita -se amplamente as grandes empresas de tecnologia que operam os maiores serviços de nuvem e consumidor de Internet.
Esses mesmos grandes grupos de tecnologia estão desenvolvendo seus próprios chips rivais de AI e empurrando -os para seus clientes como alternativas à do NVIDIA.
A Amazon, o maior provedor de nuvem, está de olho em uma posição no treinamento de IA que a NVIDIA dominou nos dois anos e meio desde que o chatgpt de OpenAI deu início ao Boom Generativo da AI. A IA Start-up Antrópica, que conta a Amazon como um grande investidor, está usando os processadores da AWS Trainium para treinar e operar seus próximos modelos.
“Há muitos clientes agora chutando os pneus com trens e trabalhando em modelos”, disse Dave Brown, vice-presidente de computação e rede da AWS.
Vipul Ved Prakash, diretor executivo da AI, um neocloud focado na IA de código aberto que se tornou um parceiro da NVIDIA Cloud em março, disse que a designação “oferece um acesso muito bom à própria organização da NVIDIA”.
“Se os hiperescaladores acabarão sendo concorrentes e deixarão de ser clientes, seria importante para a Nvidia ter seu próprio ecossistema em nuvem. Acho que essa é uma das áreas de foco, para construir isso”.
Um executivo de outro provedor do Neocloud disse que o fabricante de chips estava “preocupado” com as grandes empresas de tecnologia que mudam para seus próprios chips personalizados.
“É por isso que, eu acho, eles estão investindo nos neoclouds. Metade de suas receitas são hiperesseres, mas eventualmente eles a perderão, mais ou menos.”