Anthropic lança revisão de código colaborativa com múltiplos agentes para Claude Code

A Anthropic anunciou uma nova funcionalidade de Code Review para o Claude Code, seu ambiente de desenvolvimento assistido por inteligência artificial. A inovação consiste em um sistema de revisão de pull requests baseado em múltiplos agentes de IA que analisam as alterações no código de forma paralela e colaborativa, trazendo maior profundidade e precisão às análises.
Como funciona o novo sistema de revisão de código
Ao abrir um pull request, o sistema automaticamente dispara diversos agentes que inspecionam as mudanças simultaneamente. Cada agente foca em diferentes aspectos do código para identificar possíveis bugs, vulnerabilidades, inconsistências e outras falhas. Para reduzir falsos positivos, os agentes verificam mutuamente suas descobertas antes de gerar um relatório consolidado.
O resultado é uma review detalhada, que inclui um resumo dos principais problemas encontrados, comentários inline diretamente no pull request e uma classificação dos erros por severidade. O número de agentes envolvidos varia conforme o tamanho e a complexidade da alteração: mudanças maiores recebem análises mais profundas, enquanto alterações pequenas passam por revisões mais rápidas.
Segundo a Anthropic, o tempo médio para uma revisão completa é de cerca de 20 minutos, o que representa um equilíbrio entre profundidade e agilidade.
Disponibilidade e público-alvo
Atualmente, a funcionalidade está disponível em preview de pesquisa para usuários dos planos Team e Enterprise do Claude Code. A Anthropic já utiliza internamente o sistema em grande parte dos seus pull requests há meses, com resultados positivos na qualidade das revisões:
- Comentários substanciais aumentaram de 16% para 54% dos pull requests;
- Para alterações com mais de 1.000 linhas, 84% geraram algum tipo de achado, com uma média de 7,5 problemas identificados;
- Em pull requests com menos de 50 linhas, 31% geraram achados, com média de 0,5 problemas;
- Menos de 1% das descobertas foram marcadas como incorretas pelos engenheiros durante a utilização interna.
Impacto prático para desenvolvedores e equipes
Ao utilizar múltiplos agentes especializados, a Anthropic busca oferecer uma análise mais robusta e confiável, indo além das revisões rápidas e superficiais comuns em outras ferramentas de IA para código. O sistema é pensado para auxiliar e potencializar o trabalho humano, não para substituir revisores humanos, e não aprova pull requests automaticamente.
Essa abordagem pode acelerar o processo de revisão, reduzir o número de erros que chegam à produção e apoiar equipes de desenvolvimento em projetos complexos, principalmente em ambientes corporativos que demandam alta qualidade e segurança no código.
Considerações sobre preço e adoção
A Anthropic indicou que o custo por revisão varia entre US$ 15 e US$ 25, dependendo do tamanho do pull request e do volume de tokens processados. Alguns desenvolvedores da comunidade manifestaram preocupações quanto à viabilidade do preço para equipes menores ou fluxos com alto volume de revisões.
Comparado a outras soluções como o GitHub Copilot Code Review e CodeRabbit, o diferencial da Anthropic está na arquitetura multiagente e na ênfase em análises mais detalhadas, ainda que mais lentas.