- Início
- The Thinking Wire
- Três Nomes Que Você Não Sabia Mês Passado. Vai Precisar Deles Neste Trimestre.
Três Nomes Que Você Não Sabia Mês Passado. Vai Precisar Deles Neste Trimestre.
A maioria das discussões sobre governança de IA falha na primeira frase. Não porque o argumento esteja errado. Porque as palavras estão. Conselhos dizem “risco” quando querem dizer “responsabilidade delegada”. Arquitetos dizem “alucinação” quando querem dizer “confiança mal calibrada”. Engenheiros dizem “humano no loop” quando o loop já fechou sem eles.
Vocabulário é infraestrutura de governança. Se você não consegue nomear o modo de falha, não consegue escrever política contra ele, não consegue testar e não consegue explicar a um regulador como o previne.
Esta semana três vozes independentes deram nome a três dos problemas mais frequentemente mal nomeados. Os termos são usáveis hoje. Pertencem a memorandos de conselho, revisões de design, RFPs e relatórios de incidente. Juntos formam um glossário de trabalho para conversas sobre responsabilização de IA que, até agora, terminavam em gestos vagos.
Rendição Cognitiva (Não é Descarregamento Cognitivo)
Addy Osmani separa duas coisas que a indústria vinha tratando como uma só.
Descarregamento cognitivo é o que a calculadora fez com a divisão longa e o GPS fez com a leitura de mapa. Você delega uma etapa. Continua dono da resposta. Se a calculadora diz 47, você confere contra a ordem de grandeza que esperava. O formato do problema continua na sua cabeça.
Rendição cognitiva é diferente. O modelo produz um artefato (um parágrafo, um diff, um sumário de conselho, uma cláusula contratual), e o artefato chega com cara de produto pronto. Não há nada visível para fazer. Você não delegou uma etapa. Delegou o julgamento inteiro, e a saída parece tão completa que verificar parece redundante.
A palavra “rendição” importa porque nomeia uma falha de agência, não de esforço. O revisor não é preguiçoso. O revisor não consegue ver o que verificar, porque o artefato apagou as costuras. É o mesmo modo de falha que mapeamos em o custo invisível da dívida cognitiva, onde a perda é estrutural e não visível.
Use o termo quando alguém defender um fluxo de IA com “mas eles ainda revisam”. Pergunte: o revisor está fazendo descarregamento cognitivo (sendo dono da resposta) ou rendição cognitiva (aceitando porque nada parece quebrado)? A resposta determina se sua governança é real ou teatro.
Três Leis Inversas (Não as Três Leis)
Susam Pal cunha um contraponto às três leis da robótica de Asimov. Asimov escreveu suas leis para o robô. Susam escreve as dele para o humano. São guardrails contra o modo de falha mais comum em deploy de IA: o antropomorfismo que silenciosamente transfere responsabilidade de pessoas para máquinas.
As três leis inversas, em termos diretos:
- Uma IA não é pessoa. Recuse a linguagem e os rituais que sugerem o contrário. “O modelo decidiu”, “o agente escolheu”, “o sistema acredita” são delegações linguísticas de responsabilidade. Substitua por “implantamos um modelo que produziu”, “o agente emitiu”, “o sistema retornou”.
- Saída de IA não é autoridade. Uma resposta confiante de um sistema probabilístico continua sendo uma resposta probabilística. A saída é evidência, não veredicto. Tratar como veredicto é o que produz o padrão de deleção de responsabilidade que mapeamos o ano todo.
- Delegar para IA não é delegar responsabilidade. Um humano autorizou o deploy, os dados de treino, o prompt, o acesso a ferramentas e a superfície de ação. Esse humano permanece responsável pelo resultado. O modelo não é correu. Não há correu.
São leis cruas. Esse é o ponto. Frameworks sutis perdem para deriva sutil. As leis inversas estão formuladas para serem citáveis em um memorando de conselho sem tradução.
O texto de Susam é um post de domínio pessoal, não um framework revisado por pares. Trate como referência de termo cunhado. O valor está no enquadramento, que é portável, não no peso da citação.
Incerteza Fiel (Não Alucinação)
Pesquisadores do Google reenquadram o problema da alucinação este mês com um termo que resolve uma confusão real de definição.
“Alucinação” sugere que o modelo fabricou algo que não sabia. A realidade mecanicista é mais próxima de uma falha de calibração. O modelo mantinha uma distribuição de probabilidade sobre respostas possíveis e, ao falar, falou com confiança que não refletia a distribuição subjacente. A saída não foi aleatória. A saída era incerta, e o modelo falhou em expressar a incerteza.
Incerteza fiel é a propriedade inversa. Um modelo expressa incerteza fiel quando a confiança declarada coincide com a confiabilidade real na resposta. Um modelo que diz “tenho 90% de certeza” deve estar certo aproximadamente 90% das vezes quando faz essa afirmação. Um modelo que diz “tenho 60% de certeza” deve estar certo aproximadamente 60% das vezes. O alvo de calibração é o alinhamento entre confiança expressa e confiança real.
Esse reenquadramento muda o que a governança pede. Deixa de ser “o modelo alucinou?” (julgamento binário pós-fato). Passa a ser “a confiança do modelo é fiel?” (propriedade que se mede, monitora e exige). Fornecedores podem ser cobrados por uma curva de calibração. Compras pode exigir. Auditoria pode verificar.
Mapeamos o padrão de defesa em camadas para controle de alucinação no início do ano. Incerteza fiel dá àquela arquitetura um alvo mensurável em vez de um alvo móvel.
Por Que Glossário é a Jogada Agora
Três observações tornam este um trimestre de trabalho de vocabulário inusitadamente importante.
Primeiro, o relógio regulatório. O EU AI Act atinge vigência plena em agosto de 2026. Auditores chegarão com suas próprias definições se você não chegar com as suas. Organizações cujo vocabulário interno já mapeia “responsabilidade delegada”, “fidelidade de calibração” e “guardrails antiantropomorfismo” escreverão políticas defensáveis em dias. Organizações ainda discutindo o que significa “supervisão humana” vão gastar meses no trabalho errado.
Segundo, a superfície de procurement está endurecendo. RFPs corporativos para sistemas de IA vêm pedindo cada vez mais que fornecedores descrevam o vocabulário de governança, não só a arquitetura. Um fornecedor que responde “qual é sua política sobre rendição cognitiva nos fluxos de usuário?” se posiciona diferente de outro que ouve a pergunta como língua estrangeira.
Terceiro, o terreno da governança do conhecimento está escurecendo. À medida que mais discurso público passa a ser mediado por IA, a precisão do vocabulário interno vira diferencial competitivo. Organizações que sabem nomear modos de falha conseguem evitá-los. Organizações que não sabem, repetem.
O Que Fazer Esta Semana
Três movimentos concretos que compostam.
Adicione os três termos ao glossário da sua política de IA, com definições de uma frase no seu contexto. Não como exercício de redação. Como função forçante: se rendição cognitiva não tem definição de uma frase que cabe no seu fluxo, você não tem política sobre o tema.
Rode uma revisão de design contra as leis inversas. Escolha uma feature de IA que sai neste trimestre. Percorra com a pergunta: “Esse design sugere que a IA é pessoa, que sua saída é autoridade ou que implantá-la transfere responsabilidade para fora de nós?” Documente as respostas. A maioria dos times encontra ao menos um dos três.
Peça aos fornecedores de modelo curvas de calibração de incerteza fiel. Não acurácia agregada. Calibração. Se não souberem produzir, isso é resposta para outra pergunta que você também precisaria responder.
O vocabulário não é a governança. O vocabulário é o que torna a governança escrevível.
Fontes
- Addy Osmani. “Cognitive Surrender.” Maio de 2026.
- Susam Pal. “The Three Inverse Laws of Robotics.” Maio de 2026.
- Google Research. “Google Rethinks Hallucinations Through Uncertainty.” Maio de 2026.
A Victorino ajuda conselhos e arquitetos a adotar o vocabulário que distingue erro de IA de falha de responsabilização: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa