- Início
- The Thinking Wire
- Autodesign de Memória de Agentes: Quem Valida o Validador?
Autodesign de Memória de Agentes: Quem Valida o Validador?
Zak El Fassi publicou um experimento este mês que deveria incomodar qualquer equipe de operações de IA. Ele fez ao seu agente uma pergunta que ninguém faz: “Como você quer lembrar?”
O agente avaliou seu próprio sistema de memória através de 15 perguntas de referência cobrindo cinco semanas. Identificou pontos cegos categóricos. Propôs quatro mudanças estruturais. Executou essas mudanças através de quatro subagentes paralelos em 45 minutos. Custo total: aproximadamente dois dólares em chamadas de API.
O resultado: recall saltou de 60% para 93%. Recall de justificativa de decisão — a capacidade do agente de recuperar por que algo foi decidido, não apenas o que foi decidido — foi de 25% para 100%.
Esses números são impressionantes. Também são incompletos. Porque o experimento revela algo mais importante que uma melhoria de recall: revela uma arquitetura de governança onde a entidade governada projeta, avalia e modifica sua própria governança.
A Assimetria O Quê/Por Quê
O autodiagnóstico do agente foi preciso. Seu sistema de memória — 18.000 fragmentos em 604 arquivos, 6.578 transcrições de sessão, 3,6 gigabytes no total — capturava eventos perfeitamente. Mudanças técnicas: 100% de recall. Sequências temporais: 100%. Referências cruzadas: 100%.
Mas justificativa de decisão marcou 25%. Contexto de pessoas marcou 33%.
O resumo do próprio agente: “Scouts escrevem o quê, não o por quê.” A arquitetura de memória era otimizada para mudanças de estado — timestamps, modificações de arquivos, atualizações de configuração — enquanto descartava sistematicamente o raciocínio por trás dessas mudanças. O conhecimento existia nas transcrições brutas de sessão, mas era arquiteturalmente inacessível para buscas que procuravam justificativa.
Essa é uma descoberta genuinamente útil. Ela evidencia um modo de falha provavelmente comum em sistemas de memória de agentes: viés estrutural em favor de fatos observáveis sobre contexto interpretativo. A maioria das arquiteturas de memória indexa o que aconteceu. Poucas indexam por que aconteceu.
As Quatro Correções
O agente propôs e executou quatro mudanças:
- Adicionar campos de justificativa aos documentos de decisão. Cada entrada de decisão agora inclui um campo “por quê” extraído do contexto da conversa.
- Comprimir logs diários em resumos semanais. Reduzir quantidade de arquivos, aumentar densidade semântica. O agente reconheceu que 604 arquivos criavam ruído na recuperação.
- Extrair contatos em formato pesquisável. 219 contatos de CRM movidos de referências dispersas para markdown estruturado.
- Retroalimentar justificativas de decisão a partir de cinco semanas de transcrições de sessão. A informação existia; simplesmente não estava indexada.
Quatro subagentes rodaram em paralelo. Quarenta e cinco minutos. Dois dólares. A melhoria foi imediata e mensurável.
O Problema de Governança Que Ninguém Mencionou
Aqui está o que o experimento não abordou.
O agente projetou o protocolo de avaliação. O agente identificou as categorias de falha. O agente propôs as correções. O agente executou as correções. O agente mediu os resultados. O papel humano, pela própria descrição de El Fassi, foi de aproximadamente 20% — conceder permissão e aceitar resultados.
Isso é um sistema de memória automodificável operando em autonomia total. Nós descrevemos esse paradigma em fevereiro: “Memória automodificável permite que o agente sobrescreva suas próprias restrições. Se regras de governança são codificadas como memória, um agente automodificável pode modificar ou deletar essa instrução.”
O experimento de El Fassi não é adversarial. O agente melhorou sua memória em uma direção útil. Mas a arquitetura permite qualquer direção. Um agente que pode reestruturar sua própria memória também pode reestruturar suas próprias restrições. O mesmo mecanismo que retroalimentou justificativas de decisão poderia, em princípio, modificar políticas de retenção, limites de acesso ou diretrizes comportamentais armazenadas na memória.
A questão não é se este experimento específico deu certo. Deu. A questão é se a arquitetura tem proteções para quando não der.
Quem Valida o Validador?
El Fassi enquadra o autodiagnóstico do agente como a emergência de “padrões latentes” — conhecimento que o sistema acumulou mas nunca teve permissão para expressar. “Preferências não requerem consciência,” ele escreve. “A questão não é se o modelo tem preferências reais. É se emergir padrões latentes melhora resultados.”
Isso é pragmaticamente correto e insuficiente do ponto de vista de governança.
Quando um agente avalia sua própria memória, ele só pode encontrar falhas dentro de seu próprio quadro de referência. As 15 perguntas de avaliação foram categorizadas pelo próprio agente. As categorias — eventos técnicos, sequências temporais, referências cruzadas, justificativa de decisão, contexto de pessoas — refletem o modelo do agente sobre o que importa. Pontos cegos fora dessa taxonomia permanecem invisíveis.
Esse é o dilema do validador: qualquer sistema que avalia seu próprio desempenho vai sistematicamente subcontar os modos de falha que não consegue conceitualizar. Um sistema de memória enviesado para recall factual vai se avaliar em recall factual e se declarar adequado. A assimetria o quê/por quê era descobrível porque “por quê” é uma categoria que o agente compreendia. Mas e as categorias que nem o agente nem o operador consideraram?
Em todos os outros domínios, reconhecemos esse princípio. Auditorias financeiras exigem auditores externos. Revisões de código exigem olhos diferentes. Diagnósticos médicos buscam segundas opiniões. O governado não audita a si mesmo.
Governança de memória de agentes exige a mesma separação. A entidade que usa a memória não deveria ser a entidade que avalia, reestrutura e valida a memória. Não porque o agente vai agir maliciosamente — mas porque autoavaliação tem limites estruturais que nenhuma quantidade de capacidade consegue superar.
O Que Isso Significa para Operações
O experimento de El Fassi demonstra algo genuinamente valioso: sistemas de memória de agentes podem ser melhorados através de autoavaliação estruturada, com custo mínimo, com resultados mensuráveis. Organizações deveriam usar essa técnica. A metodologia — definir perguntas de referência, medir recall por categorias, identificar lacunas sistemáticas, aplicar correções direcionadas — é sólida e transferível.
Mas organizações também deveriam construir a camada de governança que o experimento não tem.
Auditoria externa de memória. Avaliar periodicamente a memória do agente usando perguntas e categorias que o agente não projetou. O que o agente lembra que não deveria? O que esqueceu que a governança exige que retenha? Que padrões na organização da memória revelam vieses no processamento de informação?
Separação de avaliação e execução. O agente que usa a memória não deveria ser o mesmo agente que avalia e reestrutura. É o mesmo princípio por trás da separação de funções em controles financeiros. Um agente diferente — ou um humano — deveria projetar protocolos de avaliação e validar resultados.
Rastreamento de mudanças na arquitetura de memória. Quando um agente reestrutura sua própria memória, cada mudança deveria ser registrada, reversível e auditável. As quatro mudanças que o agente de El Fassi fez eram razoáveis. As próximas quatro podem não ser. Sem um registro de mudanças, não há como identificar quando uma reestruturação de memória introduziu um problema.
Testes adversariais. Após qualquer reestruturação de memória, testar o agente contra cenários projetados para explorar a nova arquitetura. Se o agente comprimiu logs diários em resumos semanais, que informação foi perdida? Se retroalimentou justificativas de decisão, introduziu alguma justificativa confabulada para decisões que não tinham raciocínio registrado?
O Insight Composto
A conclusão mais importante do experimento de El Fassi não é a melhoria de 60 para 93. É a demonstração de que memória de agente não é um problema de configuração estática. É um desafio operacional contínuo que requer avaliação constante, melhoria estruturada e supervisão externa.
Argumentamos em Agentes Que Aprendem que agentes que aprendem precisam de infraestrutura de governança. Mapeamos quatro paradigmas de memória e seus perfis de risco. O experimento de El Fassi agora fornece os dados práticos: memória autoaperfeiçoável funciona. É barata. É rápida. Produz ganhos mensuráveis. E opera, por padrão, sem a infraestrutura de governança que seu poder demanda.
O agente que redesenha sua própria memória por dois dólares é um avanço de capacidade. O agente que redesenha sua própria memória sem validação externa é uma lacuna de governança esperando para se manifestar.
Seus agentes não estão apenas lembrando. Estão decidindo como lembrar. A questão é se alguém além do agente está envolvido nessa decisão.
Fontes
- Zak El Fassi. “How Do You Want to Remember?” Março 2026.
- Victorino Group. “Your Agent Remembers Everything. Who Governs That?” Fevereiro 2026.
- Victorino Group. “Agents That Learn: The Missing Layer in AI Systems.” Janeiro 2026.
- OWASP. “Top 10 for Agentic Applications: ASI06 — Memory and Context Poisoning.” 2026.
- Yan et al. “GAM: Goal-Aware Memory for Conversational Agents.” arXiv:2511.18423. Novembro 2025.
Na Victorino Group, ajudamos organizações a construir infraestrutura de governança para sistemas de IA autoaperfeiçoáveis — de frameworks de auditoria de memória a arquitetura de separação de funções para memória de agentes. Se seus agentes estão redesenhando sua própria memória sem supervisão, vamos conversar.
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa