Voltar para o blog
Notícias de IA

Gimlet Labs levanta US$ 80 milhões para revolucionar a execução de IA com nuvem multi-silício

23 de março de 2026
13:31
inteligência artificialtecnologiaNvidiaInvestimento em IAdata centerInferência em IAAMDGimlet LabsMulti-silícioMenlo Ventures
Gimlet Labs levanta US$ 80 milhões para revolucionar a execução de IA com nuvem multi-silício

A startup americana Gimlet Labs acaba de captar US$ 80 milhões em uma rodada de Série A liderada pela Menlo Ventures para impulsionar sua tecnologia inovadora que promete resolver um dos principais gargalos atuais da inteligência artificial: a inference bottleneck, ou seja, a limitação na execução eficiente dos modelos de IA.

O desafio da inferência em IA e a proposta da Gimlet Labs

O processo de inferência em IA, que é quando um modelo pré-treinado realiza previsões ou respostas, demanda diferentes tipos de recursos computacionais, como CPUs tradicionais, GPUs otimizadas para IA e sistemas com alta capacidade de memória. Até hoje, não existe um chip único capaz de executar todas as etapas de forma otimizada.

Imagem relacionada ao artigo de TechCrunch AI
Imagem de apoio da materia original.

Para contornar essa limitação, a Gimlet Labs desenvolveu o que chama de primeira e única "multi-silicon inference cloud", um software capaz de distribuir simultaneamente a carga de trabalho de IA entre diversos tipos de hardware, incluindo chips da NVIDIA, AMD, Intel, ARM, Cerebras e d-Matrix.

Conforme explica o fundador Zain Asgar, professor adjunto em Stanford e empreendedor com histórico de sucesso, a plataforma orquestra as tarefas de inferência dividindo-as conforme suas características: inferência propriamente dita é limitada por capacidade computacional, decodificação exige memória elevada e chamadas a ferramentas dependem da rede. Assim, cada etapa é encaminhada para o hardware mais adequado disponível.

Impacto prático e eficiência econômica

Segundo Asgar, atualmente os aplicativos de IA utilizam apenas entre 15% e 30% da capacidade computacional disponível em data centers, o que representa um enorme desperdício de recursos, estimado em centenas de bilhões de dólares.

Ao permitir que a carga de trabalho seja distribuída de forma inteligente e simultânea em uma frota heterogênea de chips, a Gimlet Labs afirma conseguir acelerar a inferência de IA entre 3 a 10 vezes com o mesmo custo e consumo de energia.

Essa eficiência pode ser decisiva, especialmente diante da previsão da consultoria McKinsey de que o investimento global em data centers chegará a quase US$ 7 trilhões até 2030, impulsionado pelo crescimento da demanda por computação em nuvem e IA.

Parcerias estratégicas e clientes-alvo

A tecnologia da Gimlet Labs já está integrada a chips de grandes fabricantes, como NVIDIA, AMD, Intel, ARM, Cerebras e d-Matrix, e é voltada principalmente para os maiores laboratórios de pesquisa em IA e provedores de data centers, não para desenvolvedores comuns.

Desde seu lançamento público em outubro de 2025, a empresa já reporta uma receita de oito dígitos (acima de US$ 10 milhões) e teve sua base de clientes mais que dobrada em quatro meses, incluindo um grande fabricante de modelos de IA e uma enorme companhia de computação em nuvem, cujos nomes permanecem confidenciais.

Histórico e investimento

Os fundadores da Gimlet Labs, além de Zain Asgar, são Michelle Nguyen, Omid Azizi e Natalie Serrino, que já trabalharam juntos na Pixie, startup de observabilidade para Kubernetes adquirida pela New Relic em 2020.

Após um encontro casual de Asgar com o investidor Tim Tully, da Menlo Ventures, e aportes iniciais de professores de Stanford, a Gimlet Labs atraiu um grande interesse de investidores, fechando rapidamente a rodada de US$ 80 milhões, que soma US$ 92 milhões no total com a rodada seed. Entre os investidores-anjo estão nomes como Bill Coughran (Sequoia), Nick McKeown (Stanford), Raghu Raghuram (ex-CEO da VMware) e Lip-Bu Tan (CEO da Intel).

Atualmente, a empresa conta com cerca de 30 funcionários e segue focada em ampliar sua tecnologia para atender a crescente demanda por soluções eficientes em IA.

Links úteis