Quatro Meses, Um Tipo Array no Redis e o Que Isso Diz Sobre IA em Código de Produção
Salvatore Sanfilippo passou quatro meses construindo um tipo Array no Redis com IA. A disciplina que ele descreve é a tese do harness na prática.
As ferramentas mudam rápido. Os princípios de engenharia que tornam a IA governável, não.
50 artigos
Salvatore Sanfilippo passou quatro meses construindo um tipo Array no Redis com IA. A disciplina que ele descreve é a tese do harness na prática.
Com 50+ ferramentas MCP, schemas comem 5–7% do contexto antes do usuário digitar. Code Mode é resposta. Governabilidade é a pergunta.
A taxonomia de memória de agentes de Tim Kellogg, com um número operacional para governar. Blocos de memória acima de 500 caracteres confundem o agente.
Análise arquitetural do Claude Code mostra que o motor do agente é um laço simples. A complexidade, e a governança, vive no perímetro.
Simon Willison publicou o diff do system prompt do Opus 4.7. O que esse artefato ensina sobre governança auditável de camada de prompt.
O co-criador do MCP acaba de descrever a arquitetura de conectividade para 2026. Procurement precisa de uma nova matriz.
A Callstack cortou 50% do consumo de tokens sem trocar de modelo. Só trocou screenshots por contexto deliberado. Essa é a governança de custo mais barata.
Cursor otimizou 235 kernels CUDA com um sistema multi-agente e publicou ganho médio de 38%. A disciplina de medição importa mais que o número.
BugBot alcança 78% de resolução com 44K regras autônomas. Claude exige configuração humana. Mesma pergunta, duas respostas.
Stanford e MIT criaram um sistema que otimiza harnesses automaticamente. Se harnesses são governança, quem governa o otimizador?
Claude Code achou vulnerabilidades que humanos não encontraram em décadas. A questão de governança: quem mais pode fazer isso?
Novos dados: 60% das citações do ChatGPT não aparecem nos resultados de busca. Organizações não governam visibilidade de IA como SEO.
Labs de agentes estão treinando modelos próprios. A decisão de quando treinar revela um framework de governança com quatro dimensões.
Um harness com restrições de tipo transformou 6,75% de sucesso em chamadas de função do Qwen em 99,8%. O custo do harness é negativo.
Agentic mesh conecta agentes de IA isolados em uma rede governada. A maioria das organizações precisa. Poucas sabem que existe.
Agent harness é a infraestrutura que envolve seu modelo de IA. Mesmo modelo, harness diferente, 85% mais resultados.
Anthropic publicou dados empíricos sobre harness para aplicações longas. Os custos, os padrões e as falhas revelam mais do que pretendem.
Pesquisa da USC: prompts de persona expert reduzem precisão em 3,6pp e aumentam segurança em 17,7pp. A solução é roteamento, não remoção.
Dados de gastos corporativos da Ramp mostram Anthropic saltando de 4% para 24,4% em um ano. OpenAI registrou seu maior declínio. Por quê?
Uma equipe queimou 72% do contexto em definições de ferramentas. Três soluções independentes convergem no mesmo princípio.
Lições de um insider da Anthropic sobre skills em escala: verificação supera geração, contexto verboso degrada, e governança exige pipeline.
CLIs economizam tokens para indivíduos. MCP vence para empresas. A pergunta real não é qual é melhor, mas quem está perguntando.
Mesmo modelo, mesmo benchmark. Claude Opus 4.5 marcou 42% e 78% dependendo do harness. O modelo não é o produto.
A equipe do Claude Code compartilha 4 lições de design de ferramentas. Evidência de primeira mão: ferramentas moldam comportamento de agentes.
Separando sinal verificado de ruído de marketing no campo emergente de Generative Engine Optimization.
Erlang resolveu orquestração de agentes em 1986. Quatro sinais convergentes mostram a indústria redescobrindo supervisão e isolamento.
Mais dados não melhoram seu modelo. Composition-RL mostra que compor problemas simples supera escalar dados — e modelos menores vencem maiores.
O novo padrão WebMCP do Chrome permite que sites exponham ferramentas estruturadas para agentes de IA.
Uma dissecação da arquitetura open-source de agentes da OpenAI e o que isso significa para times de engenharia.
Como o pipeline de análise qualitativa do /insights transforma logs de sessão em inteligência acionável para desenvolvedores.
O take-home da Anthropic mostra que IA otimiza rápido, mas não profundo. A lição real está na governança, não na velocidade.
Estudo da Vercel: 100% de aprovação com AGENTS.md vs 53% para skills. O problema: agentes nunca invocavam os skills.
Conversas com IA geram insights que ficam presos em logs de chat. Integração FigJam cria artefatos compartilháveis.
Se você repete as mesmas instruções toda sessão, não está desenvolvendo com IA. Aprenda a criar sistemas que aprendem com cada interação.
Como o BugBot evoluiu de pipeline estático para agente autônomo e o que times de engenharia podem aprender sobre DevEx com IA.
Como gerenciar contexto em sistemas agênticos de produção. Sete lições do Azure SRE Agent e técnicas avançadas do Manus.
FastMCP 3.0 reconstrói o framework ao redor de três primitivos fundamentais. Entenda Components, Providers e Transforms para enterprise.
97 milhões de downloads mensais. Também culpado por agentes que alucinam. O problema não é o protocolo - é o design do seu servidor.
Guia prático para criar um CLAUDE.md eficiente. Melhores praticas, estrutura, exemplos e erros comuns ao configurar o Claude Code.
Anthropic lança Claude Cowork: automação agêntica para todos. Análise técnica, casos de uso reais e o que funciona de verdade.
Demo ao vivo no Cloud Next 2026: mesma pergunta, duas respostas. Metadado sozinho errou. Grafo de contexto acertou. Notas da plateia.
A Reco.ai gastou $400 em tokens para reescrever um sistema inteiro. A verificação levou 24x mais tempo. Velocidade está resolvida. O gargalo é outro.
A Stripe publicou a arquitetura completa dos seus agentes de código. A parte interessante não é a IA. São as paredes ao redor dela.
A OpenAI chama de harness engineering. A Anthropic chama de effective harnesses. A disciplina é antiga. O reconhecimento é tardio.
O debate agente-vs-ferramenta esconde uma questão arquitetural mais profunda. A verdadeira habilidade é saber quando usar cada padrão.
GitHub adiciona agentes de IA ao Actions. A mudança real não é markdown sobre YAML — é tornar o trabalho não-determinístico sistemático.
OpenAI e Anthropic lançaram modelos de fronteira no mesmo dia. A história real não é quem venceu — é o que suas apostas convergentes dizem.
Qualidade do codebase é o preditor mais forte de ganhos com IA. Mas a maioria das organizações ignora o que seus linters e testes já dizem.
Descrições de ferramentas direcionam agentes. Degradação de contexto corrói controle. O desafio real não é o protocolo — é o que o agente vê.
A inovação mHC do DeepSeek usa matrizes duplamente estocásticas para estabilizar redes profundas. Análise técnica e impacto estratégico.
Mergulhos técnicos em código, MCP, agentes e padrões de engenharia.
Agende uma Discussão Técnica