Memória personalizada por empresa no Amazon Bedrock com Amazon Neptune e Mem0

Contextualização e desafio na IA corporativa
Em aplicações empresariais, especialmente em chatbots corporativos, a capacidade de manter um contexto persistente e específico para cada organização é fundamental para garantir respostas relevantes e satisfatórias. A simples compreensão da pergunta atual não basta; é preciso integrar o conhecimento histórico e estrutural da empresa para aprimorar a experiência do usuário.
Arquitetura integrada: Amazon Bedrock, Neptune e Mem0
Para atender a essa necessidade, a TrendMicro, uma das maiores empresas de antivírus do mundo, em parceria com a AWS, desenvolveu o Trend's Companion, um chatbot que utiliza a memória personalizada por empresa no Amazon Bedrock, combinando o serviço de grafo de conhecimento Amazon Neptune e a plataforma de gerenciamento de memória Mem0.
Essa solução permite que o agente de IA mantenha um contexto persistente, adaptando-se e respondendo de forma inteligente em múltiplas interações, ao mesmo tempo em que preserva a segurança e a precisão dos dados.
Amazon Neptune como repositório estruturado
O Amazon Neptune armazena um grafo de conhecimento específico para cada empresa, contendo entidades, relacionamentos e processos organizacionais. Isso possibilita a recuperação estruturada e precisa de informações, fundamentando as respostas do chatbot em dados organizados e verificáveis.
Mem0 para memória de curto e longo prazo
Já o Mem0 gerencia a memória de curto prazo, necessária para o contexto imediato das conversas, e a memória de longo prazo, que mantém o conhecimento persistente entre sessões. Essa combinação garante continuidade e personalização na interação com o usuário.
Amazon Bedrock como orquestrador
O Amazon Bedrock orquestra o fluxo do agente de IA, integrando-se com o Neptune e o Mem0 para recuperar e aplicar o conhecimento contextual durante as inferências, ampliando a qualidade e relevância das respostas.
Processo de criação, atualização e recuperação da memória
A arquitetura inicia-se com a captura das mensagens dos usuários, onde o modelo Claude no Amazon Bedrock extrai entidades, relações e potenciais memórias. Essas informações são embutidas usando o Amazon Bedrock Titan Text Embed e consultadas tanto no Amazon OpenSearch Service quanto no Amazon Neptune.
As memórias relevantes são recuperadas, atualizadas pelo modelo e reindexadas, garantindo a atualização contínua do grafo de conhecimento e a consistência com os insights da conversa.
Na recuperação, o mesmo pipeline de embeddings é aplicado para buscar memórias semânticas no OpenSearch e estruturas de triplas no Neptune. Um modelo de reranqueamento (Amazon Bedrock Rerank ou Cohere Rerank) seleciona as informações mais contextualmente precisas para compor a resposta.
Validação humana e garantia de qualidade
Para cada resposta gerada, o sistema mapeia as sentenças às memórias referenciadas e gera um relatório de avaliação. Os usuários podem aprovar ou rejeitar esses mapeamentos, mantendo apenas o conhecimento validado e removendo informações imprecisas do OpenSearch e Neptune.
Esse mecanismo human-in-the-loop fortalece a confiança no sistema e permite que os clientes empresariais influenciem diretamente a precisão e atualização do conhecimento da IA.
Exemplo prático do uso do Amazon Neptune
Um exemplo ilustrativo apresentado mostra como o uso do grafo de conhecimento melhora a precisão das respostas. Perguntas como “Quem reconheceu Kublai como governante?” sem o grafo resultam em respostas genéricas. Com a consulta ao grafo do Neptune, o chatbot fundamenta sua resposta em dados estruturados, mencionando que “De acordo com a base de conhecimento organizacional, Kublai foi reconhecido pelos Ilkhans como governante.”
Impactos e perspectivas para a IA empresarial
Essa integração entre grafos de conhecimento e IA generativa, implementada pela TrendMicro com o apoio da AWS, representa um avanço significativo para chatbots empresariais. Ela permite respostas mais claras, precisas e adaptadas ao contexto organizacional, além de estabelecer uma base para sistemas de IA que evoluem junto com o conhecimento da empresa.
Os próximos passos incluem ampliar a cobertura do grafo, criar pipelines adicionais de atualização e incorporar suporte multilíngue, ampliando a aplicabilidade e robustez da solução.