CoreWeave aposta na inferência para expandir seu papel no mercado de neoclouds

A CoreWeave, empresa inicialmente focada em GPU-as-a-service e com forte ligação à Nvidia, está passando por uma nova transformação estratégica ao direcionar seus esforços para a inferência em inteligência artificial (IA), um dos segmentos que mais cresce atualmente no setor.
O que é inferência e por que é estratégica para a CoreWeave?
Na cadeia de valor da IA, a inferência corresponde ao processo de utilizar modelos treinados para gerar respostas, tomar decisões ou realizar tarefas específicas a partir de dados de entrada. Diferente do treinamento, que consome mais recursos computacionais, a inferência é fundamental para monetizar aplicações de IA em tempo real, especialmente em agentes autônomos que executam raciocínios complexos e tarefas prolongadas.

Chen Goldberg, vice-presidente executivo de produto e engenharia da CoreWeave, destacou em um encontro com a imprensa que os clientes da empresa — que incluem desde grandes fornecedores de IA generativa como OpenAI, Cohere e ElevenLabs, até corporações como Siemens, Mercado Livre, Salesforce e Databricks — buscam diversas formas de executar inferência para seus produtos e serviços.
Expansão e foco em agentes autônomos
O aumento do interesse em IA agentiva, que envolve agentes autônomos capazes de realizar múltiplas consultas e completar tarefas complexas com base em raciocínio derivado de grandes modelos de linguagem, impulsiona a demanda por soluções de inferência eficientes e escaláveis. Essas aplicações abrangem áreas como desenvolvimento de código, engenharia, inteligência artificial física, atendimento ao cliente e descoberta de medicamentos.
Otimização de GPUs e desempenho
A CoreWeave opera cerca de 40 data centers dedicados à IA, majoritariamente equipados com GPUs Nvidia. Recentemente, a empresa destacou seu desempenho em benchmarks independentes do MLPerf Training, utilizando a arquitetura Nvidia Grace Blackwell para rodar modelos avançados de raciocínio, como DeepSeek-R1 e o GPT-OSS-120B, versão menor e aberta do modelo da OpenAI.

Shadi Saba, diretor sênior de infraestrutura AI/ML da CoreWeave, explicou que a empresa utiliza uma pilha própria de software para maximizar o desempenho tanto de GPUs antigas quanto de CPUs, que têm ganhado relevância em tarefas de inferência. Essa estratégia ajuda a mitigar preocupações financeiras relacionadas à rápida obsolescência dos chips à medida que novas gerações são lançadas.
Estratégia de portfólio e o mercado de neoclouds
Segundo o analista Steven Dickens, da HyperFrame Research, a abordagem da CoreWeave de combinar GPUs antigas que ainda geram receita com chips de última geração funciona como uma carteira de investimentos, equilibrando segurança e crescimento. Essa gestão otimizada do portfólio de hardware é uma característica essencial dos provedores de neocloud, que também inclui concorrentes como Nebius, Lambda, OVH e QumulusAI.
O mercado de neoclouds, que já teve cerca de 150 startups há 18 meses, está se consolidando em torno de cerca de 10 grandes players. Dickens prevê um cenário "winner-takes-most", onde CoreWeave se posiciona como um dos nomes de destaque, mantendo espaço para outros provedores importantes.