Verificação-Primeiro Ganhou um Manifesto

TV
Thiago Victorino
6 min de leitura
Verificação-Primeiro Ganhou um Manifesto
Ouvir este artigo

Verificação ganhou um manifesto. Reprodutibilidade ganhou um paper científico. Revisão cruzada entre modelos virou feature padrão de CLI. Tudo isso em abril de 2026. Está é a semana em que o movimento verification-first saiu do argumento e virou doutrina.

Faz meses que argumentamos o ponto. Em A Dívida de Verificação, mostramos o gap entre desconfiança e disciplina: 96% dos desenvolvedores desconfiam do código da IA, só 48% verificam. Em O Imposto da Verificação, tratamos o custo como linha orçamentária, não como virtude moral. Em $200M Dizem Que Verificação É Infraestrutura, lemos o cheque da Axiom como declaração de categoria. O argumento está feito. O que mudou nesta semana é que ele parou de ser argumento.

Os quatro princípios que o manifesto consolida

O AI Coding Agent Manifesto traz doze princípios. Quatro deles reorganizam o que “bom o suficiente” significa para código assistido por IA.

Contratos antes de convenções. Humanos definem o esqueleto. A IA preenche. O contrato é escrito, versionado, lido por humanos e por agentes. Convenção é folclore; contrato é lei. A diferença importa quando o agente erra e alguém precisa provar onde.

Verificação antes de geração. A ordem inverte o instinto. Antes de gerar uma linha, o agente declara o que vai ser verificado. O teste vem primeiro porque ele é o contrato executável. Sem isso, a geração fica mais rápida do que a capacidade humana de acompanhar, e a dívida de verificação cresce silenciosamente.

Separação entre geração e julgamento. O modelo que gera não é o mesmo que julga. Pode ser outra instância, outro modelo, um humano. O ponto é estrutural: quem escreve não aprova. É o mesmo princípio que separa desenvolvimento de revisão de código há décadas, agora aplicado ao próprio ato de gerar.

Culpado até prova em contrário. O default se inverte. Código da IA entra no repositório com a presunção de que está errado. A prova de inocência é a verificação documentada. Isso soa duro, e é. Também é honesto sobre o que sabemos hoje.

Um manifesto, por si só, é artefato social. Não tem força de norma técnica, não é ISO, não é regulação. O que o torna real é o que aconteceu ao redor dele na mesma semana.

A evidência que transforma argumento em doutrina

A Thinking Machines publicou “Defeating Nondeterminism in LLM Inference”. A descoberta central é desconfortável: APIs de LLM não são determinísticas mesmo com temperature=0. Nem em hardware próprio, com bibliotecas de inferência open source. A pesquisa identifica as causas raiz e propõe mitigações, mas a conclusão importa mais que o método. Reprodutibilidade é o alicerce do método científico. Se não conseguimos reproduzir a saída, não conseguimos auditar a saída. Se não conseguimos auditar, a verificação deixa de ser opcional.

Três dias depois, a GitHub anunciou o Rubber Duck no Copilot CLI. É a primeira revisão cruzada entre famílias de modelos embarcada como feature default em uma CLI de grande adoção. Um modelo escreve. Outro critica. O desenvolvedor vê os dois. Ainda é experimental, e não é prudente tratar cross-model review como padrão consolidado. Mas o sinal é claro: o princípio da separação entre geração e julgamento acabou de virar comportamento de ferramenta, não mais postura individual.

Orhun, em “Write Less Code, Be More Responsible”, nomeia o lado sombrio do movimento. Ele chama de “vibe-coded applications” o código gerado sem contrato, sem verificação, sem julgamento externo. O termo é preciso porque é pejorativo. Dar nome a um anti-padrão é o passo que antecede a proibição.

Três publicações no mesmo mês, apontando na mesma direção. Uma declara princípios. Outra prova que o problema técnico é real. A terceira embarca o remédio no fluxo diário. Mais uma nomeia o que não pode mais ser tolerado. Isso não é coincidência editorial. É convergência.

O que muda para quem opera IA em produção

Se sua organização usa IA para gerar código em produção e ainda não tem política escrita de verificação, a pressão para escrevê-la vai aparecer neste trimestre. Vai vir do conselho, do time de auditoria interna, de algum cliente enterprise revisando contratos, ou do próprio time de engenharia cansado de carregar o ônus implícito.

A política não precisa ser longa. Precisa responder três perguntas que o manifesto torna inevitáveis. Qual é o contrato que o código da IA precisa satisfazer antes de entrar no repositório? Quem julga, e esse alguém pode ser o mesmo que gerou? Como o julgamento fica auditável daqui a seis meses, quando ninguém lembrar por que aquele trecho foi aprovado?

Organizações que já têm essas respostas vão economizar o trimestre. As outras vão descobrir que escrever política sob pressão de auditoria é mais caro do que escrever sob reflexão.

Há uma armadilha no “culpado até prova em contrário” que vale nomear. Aplicado sem calibragem, ele paralisa. Se cada linha gerada por IA exige prova formal, a velocidade que justificou usar IA desaparece. A saída não é baixar o padrão; é estratificar o risco. Código crítico ganha verificação forte. Código periférico ganha verificação leve. A política que não faz essa distinção vira teatro, e teatro de verificação é pior do que ausência de verificação, porque cria a ilusão de controle.

Por que este mês importa

Manifestos por si só não mudam nada. O que muda é quando o manifesto chega junto com o paper e junto com a feature de CLI, tudo apontando na mesma direção, tudo no mesmo mês. Esse é o momento em que um debate técnico vira expectativa organizacional. Antes, verificação era preferência de engenheiros cuidadosos. Agora é posição defensável publicamente, com citação, com ferramenta, com princípio numerado.

O trabalho dos próximos meses não é convencer ninguém de que verificação importa. Esse trabalho acabou. O trabalho é escrever a política que você vai precisar mostrar quando alguém perguntar. E alguém vai perguntar.


Fontes

Ajudamos times de engenharia a escrever a política de verificação que vão precisar mostrar quando o conselho perguntar: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa