AWS e NVIDIA ampliam parceria para acelerar a implantação de IA em produção

Durante o evento NVIDIA GTC 2026, a Amazon Web Services (AWS) e a NVIDIA anunciaram uma expansão significativa na sua colaboração estratégica, com foco em acelerar a transição da inteligência artificial (IA) do estágio experimental para aplicações em produção. A parceria traz novas integrações tecnológicas que atendem à crescente demanda por capacidade computacional e facilitam o desenvolvimento e operação de soluções de IA prontas para uso empresarial.
Escalando a infraestrutura de IA com mais de 1 milhão de GPUs NVIDIA
A partir de 2026, a AWS vai disponibilizar globalmente mais de 1 milhão de GPUs NVIDIA, incluindo as arquiteturas Blackwell e Rubin, distribuídas por suas regiões de nuvem. Essa iniciativa consolida a AWS como o provedor com a maior variedade de instâncias baseadas em GPUs NVIDIA, capazes de suportar uma ampla gama de workloads de IA e machine learning (ML).
Novas instâncias Amazon EC2 com GPUs NVIDIA RTX PRO 4500 Blackwell Server Edition
A AWS será a primeira grande nuvem a oferecer suporte às GPUs NVIDIA RTX PRO 4500 Blackwell Server Edition em suas instâncias Amazon EC2. Essas GPUs são indicadas para diversas aplicações, como análise de dados, IA conversacional, geração de conteúdo, sistemas de recomendação, streaming e renderização de vídeo. As instâncias serão construídas sobre o AWS Nitro System, que combina hardware dedicado e um hipervisor leve para maximizar a utilização dos recursos e garantir alta segurança e estabilidade, impedindo o acesso não autorizado aos dados sensíveis.
Otimizações para comunicação e processamento distribuído em modelos de linguagem
Com o aumento do tamanho dos modelos de linguagem (LLMs), a comunicação entre GPUs e chips Trainium pode se tornar um gargalo. Para mitigar isso, a AWS anunciou suporte à biblioteca NVIDIA Inference Xfer Library (NIXL) integrada ao AWS Elastic Fabric Adapter (EFA), que acelera a inferência distribuída de LLMs em instâncias Amazon EC2, combinando GPUs NVIDIA e Trainiums.
Essa integração permite maior throughput e menor latência na movimentação de dados de cache KV entre nós computacionais, otimizando o uso das GPUs. Além disso, a solução é compatível com frameworks open source como NVIDIA Dynamo, vLLM e SGLang, melhorando a eficiência e a velocidade da inferência.
Desempenho até 3 vezes maior para análise de dados com Apache Spark
A parceria também gerou ganhos significativos em workloads analíticos. A combinação do Amazon EMR sobre Amazon EKS com instâncias EC2 G7e, equipadas com GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, proporciona desempenho até três vezes superior para Apache Spark. Essa melhoria acelera a engenharia de features para IA/ML, transformações ETL complexas e análises em tempo real, reduzindo o tempo para obtenção de insights sem a necessidade de alterações nos aplicativos Spark existentes.
Avanços no fine-tuning e suporte a modelos NVIDIA Nemotron no Amazon Bedrock
Em breve, será possível realizar fine-tuning de modelos NVIDIA Nemotron diretamente no Amazon Bedrock utilizando Reinforcement Fine-Tuning (RFT). Essa funcionalidade permite ajustar o comportamento dos modelos para contextos específicos, como jurídico, saúde e financeiro, moldando a forma como o modelo raciocina e responde, além do que ele já conhece. Por ser nativo do Bedrock, o RFT elimina a necessidade de infraestrutura adicional.
Também está prevista a chegada do modelo híbrido MoE NVIDIA Nemotron 3 Super ao Amazon Bedrock, projetado para workloads multiagentes e raciocínio estendido, com aplicações em setores como finanças, cibersegurança, varejo e desenvolvimento de software, oferecendo inferência rápida e econômica via API gerenciada.
Compromisso com eficiência energética e sustentabilidade
Com o crescimento dos workloads de IA, a eficiência energética se torna um diferencial competitivo. A AWS destaca que sua infraestrutura é 4,1 vezes mais eficiente em energia do que data centers on-premises. No evento, líderes de sustentabilidade discutiram como a IA pode transformar a energia e a infraestrutura corporativa, com data centers atuando como participantes ativos da rede elétrica e a IA impulsionando a eficiência empresarial.
O que essa parceria representa para o mercado de IA
Os anúncios da AWS e NVIDIA refletem uma parceria de 15 anos, que agora entrega uma pilha completa de infraestrutura de IA otimizada, do hardware à camada de serviços gerenciados. Isso significa que empresas, startups e pesquisadores podem contar com uma plataforma pronta para rodar suas soluções de IA em escala, com alta performance, segurança e conformidade, sem a necessidade de montar e integrar componentes por conta própria.