Governança como Vantagem

Memória para Agentes de IA: Benchmarks, Arquiteturas e Uma Descoberta Surpreendente

TV
Thiago Victorino
15 min de leitura

Agentes de IA precisam lembrar para serem úteis em tarefas do mundo real. Sem memória persistente, cada interação começa do zero. O agente não conhece seu histórico, preferências do usuário, ou contexto de conversas anteriores.

Essa limitação está no centro de um debate técnico fascinante: qual é a melhor forma de implementar memória para agentes de IA? A resposta surpreende.

A Descoberta que Desafia Expectativas

A Letta, uma empresa de infraestrutura para agentes, testou uma abordagem minimalista: armazenar históricos de conversa como arquivos de texto e usar operações básicas de filesystem para busca.

O resultado: 74.0% de precisão no benchmark LoCoMo usando GPT-4o mini com operações simples de grep e busca semântica.

Compare isso com o Mem0, que usa uma arquitetura sofisticada de grafos de conhecimento com resolução de conflitos por LLM: 68.5%.

Uma solução simples superou uma solução complexa por mais de 5 pontos percentuais.

Por Que Simplicidade Pode Vencer

A explicação é contraintuitiva mas faz sentido: agentes são treinados extensivamente em operações de filesystem. Comandos como grep, find e cat fazem parte do repertório básico de qualquer modelo treinado em código.

Quando você dá a um agente ferramentas familiares, ele as usa com mais eficácia do que ferramentas novas e especializadas.

A Letta resume assim: “Memória para agentes é sobre se o agente recupera com sucesso a informação necessária quando precisa. O uso efetivo de ferramentas importa mais que o mecanismo de recuperação.”

O Benchmark LoCoMo

Para entender esses números, precisamos conhecer o benchmark.

LoCoMo (Long-Context Conversation Memory) foi criado pela Snap Research e publicado na ACL 2024. É o padrão para avaliar memória conversacional de longo prazo.

Composição do dataset:

  • 50 conversas humanas
  • Até 35 sessões por conversa
  • Aproximadamente 300 turnos médios
  • 9K tokens médios por conversa

Tipos de perguntas avaliadas:

  1. Single-hop: Recuperação direta de um fato
  2. Multi-hop: Conectar múltiplas informações
  3. Temporal: Raciocínio sobre tempo e sequência
  4. Adversarial: Perguntas com armadilhas

A performance humana no LoCoMo fica em torno de 88%. Mesmo os melhores sistemas ficam abaixo disso.

Comparação de Arquiteturas

Aqui está o panorama completo das abordagens testadas:

ArquiteturaBenchmarkScoreComplexidade
Filesystem (Letta)LoCoMo74.0%Baixa
Graph Memory (Mem0)LoCoMo68.5%Alta
Hindsight (4 Redes)LoCoMo89.6%Muito Alta
EmergenceMem (RAG)LongMemEval82.4%Média
Full Context GPT-4oLoCoMo58%N/A

Algumas observações importantes:

Filesystem: Alta auditabilidade. Dados em formato legível. Modelos de segurança padrão aplicáveis.

Graph Memory: Raciocínio relacional forte. Bom para consultas multi-hop. Requer expertise especializada em grafos.

Hindsight: Melhor performance absoluta. Separa fatos de opiniões. Requer investimento significativo de engenharia.

A Arquitetura Hindsight

Vale detalhar a abordagem com melhor performance. O Hindsight usa quatro redes separadas:

World Network: Fatos objetivos do ambiente. Informações verificáveis e independentes do agente.

Experience Network: Ações do agente em primeira pessoa. Histórico do que foi feito e seus resultados.

Opinion Network: Julgamentos subjetivos com scores de confiança que evoluem com novas evidências.

Observation Network: Resumos de entidades neutros. Informações consolidadas sobre pessoas, lugares, coisas.

A inovação principal: separar o que o agente observa do que ele acredita. Opiniões podem mudar quando novas evidências chegam, enquanto fatos permanecem estáveis.

Limitações dos Benchmarks

Antes de tomar decisões baseadas nesses números, algumas ressalvas importantes:

Os scores não são diretamente comparáveis. Hindsight usa Gemini-3, Letta usa GPT-4o mini. Benchmarks diferentes (LoCoMo vs LongMemEval) têm escalas diferentes. Metodologias são disputadas — Zep e Mem0 contestam resultados mútuos.

O que benchmarks não medem:

  • Performance sob carga multi-usuário
  • Degradação com informações conflitantes
  • Coerência em cadeias de tool-calling
  • Custo-performance em escala

Gap humano persiste. Humanos superam os melhores sistemas por aproximadamente 56% no LoCoMo. Mesmo o Hindsight com 89.6% fica abaixo do teto humano.

Conflitos de interesse. Cada empresa publica resultados favoráveis aos seus produtos. Letta, Mem0, Zep — todos têm incentivos comerciais.

Framework de Decisão por Camadas

Com base nessa análise, proponho um framework prático para escolher arquiteturas de memória:

Tier 1: Filesystem-Based (Recomendado)

Conversas armazenadas como arquivos de texto com busca semântica + keyword.

Quando usar:

  • Históricos abaixo de 100K tokens
  • Memória por sessão/usuário
  • Time sem expertise em grafos
  • Auditabilidade é prioridade

Performance esperada: 70-75%

Tier 2: Graph-Enhanced (Avançado)

Filesystem + extração de entidades e relacionamentos em grafo.

Quando usar:

  • Queries multi-hop frequentes
  • Conhecimento evolui e conflita
  • Relacionamentos são centrais
  • Domínio orientado a entidades

Performance esperada: 68-75%

Tier 3: Estruturada (Enterprise)

Arquitetura de 4 redes ao estilo Hindsight.

Quando usar:

  • Aplicações mission-critical
  • Opiniões devem evoluir
  • Raciocínio temporal essencial
  • Budget para investimento alto

Performance esperada: 85-90%+

Princípio guia: Comece simples. Adicione complexidade apenas quando dados mostram que é necessário. O Tier 1 resolve a maioria dos casos de uso.

Implicações para Governança

A arquitetura de memória impacta diretamente governança e compliance de sistemas de IA.

ArquiteturaControleAuditabilidade
FilesystemAltoAlta
Graph DBMédioMédia
Vector StoreBaixoBaixa

Trilhas de Auditoria: Filesystems geram logs de acesso padronizados. Grafos e vetores requerem instrumentação adicional.

Direito ao Esquecimento: Deletar dados é mais simples em arquivos que em embeddings distribuídos. LGPD e GDPR têm implicações diretas.

Soberania de Dados: Controle claro de onde dados residem. Arquivos podem ser inspecionados; vetores são opacos.

Ataques de Poisoning: Vector stores são mais vulneráveis a injeções de dados maliciosos que podem comprometer o comportamento do agente.

Tendências para Observar

Treinamento Específico para Memória: Modelos treinados especificamente em operações de memória podem fechar a lacuna entre abordagens simples e complexas.

Retrieval Híbrido: TEMPR (semântico + keyword + grafo + temporal) mostra que combinar estratégias supera abordagens únicas.

Evolução de Benchmarks: Novos benchmarks focarão em gestão de memória, não apenas retrieval. Robustez adversarial será central.

Latência vs Precisão: Sistemas em produção precisam balancear qualidade de memória com tempo de resposta. Hindsight (89.6%) é mais lento que Mem0 (68.5% em 1.44s p95).

Perguntas Abertas

Algumas questões que a pesquisa ainda não responde:

  • Como arquiteturas performam com memória multimodal (imagens, documentos)?
  • Quais são as superfícies de ataque para memory poisoning em cada abordagem?
  • Como performance degrada em horizontes muito longos (meses, anos)?
  • Quais frameworks de governança devem envolver cada tipo de arquitetura?

Principais Conclusões

Simplicidade pode vencer. Filesystem-based (74%) superou Graph-based (68.5%) no LoCoMo. Complexidade não é garantia de performance.

Familiaridade importa. Agentes usam melhor ferramentas que conhecem do treinamento (grep, find) do que APIs especializadas novas.

Benchmarks têm limites. Resultados não são diretamente comparáveis. Modelos, prompts e metodologias variam. Contexto é essencial.

Governança varia por arquitetura. Filesystems oferecem maior auditabilidade. Vector stores são mais opacos. Escolha impacta compliance.

Comece pelo Tier 1. Para a maioria dos casos, filesystem-based é suficiente. Adicione complexidade quando dados justificarem.

Gap humano persiste. Mesmo os melhores sistemas ficam abaixo de humanos. Human-in-the-loop ainda é valioso.


No Victorino Group, implementamos IA agêntica governada para empresas que não podem errar. Se você precisa de memória para seus agentes com controle total sobre dados e decisões, vamos conversar.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa