A Divisão do Determinismo: Por Que Executivos e ICs Precisam de Governança de IA Diferente

TV
Thiago Victorino
7 min de leitura
A Divisão do Determinismo: Por Que Executivos e ICs Precisam de Governança de IA Diferente
Ouvir este artigo

O engenheiro de software John Wang fez recentemente uma pergunta que a maioria das conversas sobre governança de IA ignora completamente: por que executivos adoram IA enquanto contribuidores individuais resistem?

As respostas típicas não satisfazem. “Executivos são otimistas.” “ICs têm medo de perder o emprego.” “A liderança está desconectada.” Essas explicações parecem verdadeiras sem serem úteis. Descrevem sintomas. Wang identifica a causa estrutural.

Executivos e ICs operam em paradigmas de determinismo fundamentalmente diferentes. Essa diferença explica a fricção na adoção, as falhas de governança e o caminho adiante.

Executivos Já Gerenciam Sistemas Não Determinísticos

O trabalho central de um gestor é coordenar pessoas. Pessoas são imprevisíveis, inconsistentes, emocionais e capazes de brilhantismo surpreendente. Todo executivo que já gerenciou um time de dez ou mais pessoas aprendeu a trabalhar com resultados probabilísticos. Você dá direcionamento claro. Espera 70% de alinhamento. Corrige o curso constantemente.

Wang coloca com precisão: “O trabalho de um gestor é criar um modelo do mundo e alinhar as funções de utilidade de todos.” Esse modelo nunca é completo. O alinhamento nunca é perfeito. O trabalho é operar produtivamente dentro dessa incerteza.

IA se encaixa naturalmente nessa visão de mundo. Um LLM que produz bons resultados 80% das vezes é mais previsível do que um funcionário novo no primeiro trimestre. Uma IA que ocasionalmente alucina é menos disruptiva do que um membro da equipe que silenciosamente entende errado o briefing e entrega algo incorreto duas semanas depois. Para executivos, IA tem modos de falha mais previsíveis do que os sistemas que eles já gerenciam.

Por isso mandatos vindos de cima parecem óbvios para quem os emite. Da perspectiva do executivo, IA é uma versão de maior confiabilidade daquilo que ele já coordena.

ICs Operam em um Universo Diferente

Contribuidores individuais, particularmente em funções técnicas, são avaliados por precisão. O código de um engenheiro de software ou compila ou não compila. O modelo de um analista financeiro ou fecha ou não fecha. O layout de um designer ou atende a especificação ou não atende.

Nesse contexto, a taxa de erro da IA não é uma imprecisão tolerável. É uma responsabilidade profissional. Wang captura a tensão central: “O custo de corrigir os erros [da IA] pode genuinamente ser maior do que fazer você mesmo.”

Isso não é resistência à mudança. É análise racional de custo-benefício por pessoas cujas carreiras dependem de acertar nos detalhes. Quando sua avaliação de desempenho mede a correção do seu output, uma ferramenta que acerta 85% das vezes não te economiza 85% do trabalho. Ela cria uma carga de verificação que se soma ao trabalho original.

Há também uma dimensão de identidade que frameworks de governança raramente reconhecem. Maestria é central para como ICs definem valor profissional. O valor de um engenheiro sênior vem de décadas de julgamento acumulado sobre casos extremos, decisões de arquitetura e tradeoffs invisíveis para quem não construiu sistemas similares. IA que produz output “bom o suficiente” ameaça o valor econômico dessa maestria. O medo não é sobre desemprego. É sobre a desvalorização do ofício.

Um Framework Único Não Serve Dois Modelos Mentais

documentamos a distância entre produtividade individual e institucional com IA. A análise de Wang explica por que essa distância existe: executivos e ICs operam em paradigmas de determinismo fundamentalmente diferentes. Quando mandatos encontram modelos mentais, a fricção é previsível porque o mandato assume um modelo único do que é “uso produtivo de IA.”

Não é. Uso produtivo de IA para um executivo significa melhorias em nível de portfólio em toda a equipe. Uso produtivo de IA para um IC significa output que atende seu padrão profissional de precisão. São objetivos diferentes que requerem estruturas de governança diferentes.

Governança orientada a precisão para ICs deve incluir:

  • Orçamentos de erro explícitos por caso de uso. “Esta tarefa tolera 5% de erro; aquela tolera zero.” Nem todo fluxo de trabalho recebe o mesmo tratamento de IA.
  • Portões de verificação proporcionais à criticidade da tarefa. Rascunhar uma atualização de status e escrever código de produção exigem processos de revisão diferentes. A governança deve refletir isso.
  • Limiares de qualidade definidos antes da introdução da IA, não depois. O IC precisa saber: o que significa “bom o suficiente” para esta tarefa específica?
  • Adoção optativa por domínio. As pessoas mais próximas do trabalho devem identificar onde IA agrega valor e onde agrega custo. Mandatos abrangentes ignoram o gradiente de expertise.

Governança orientada a resultados para executivos deve incluir:

  • Orçamentos de risco de portfólio. Nem toda iniciativa de IA precisa ter sucesso. Aloque um orçamento de falha entre experimentos e meça o retorno agregado.
  • Janelas de experimentação com critérios de avaliação definidos. “Vamos testar isso por 90 dias e medir estes três resultados.” Não mandatos abertos.
  • Métricas agregadas que capturem efeitos de coordenação, não apenas velocidade de output individual. Produção de código mais rápida não significa nada se integração e revisão se tornam o gargalo.
  • Ciclos de feedback que levem a fricção no nível do IC para as decisões no nível executivo. As pessoas que usam as ferramentas diariamente têm informações que as pessoas que as impõem não têm.

O Modo de Falha da Governança

A maioria das organizações hoje aplica governança estilo executivo a trabalho de nível IC. Impõem adoção, medem uso e rastreiam volume de output. Isso funciona para o modelo mental do executivo. Falha para o modelo mental do IC.

O resultado é o que Wang descreve: ICs cumprem sem se comprometer. Usam as ferramentas para satisfazer a métrica. Verificam e corrigem o output silenciosamente. Gastam mais tempo, não menos. A organização reporta altas taxas de adoção de IA enquanto as pessoas que fazem o trabalho real experimentam IA como custo adicional.

A falha inversa é mais rara, mas igualmente destrutiva: organizações que cedem inteiramente à resistência dos ICs e nunca incorporam IA em fluxos de trabalho onde ela geraria valor real. O medo da imprecisão se torna desculpa para inação.

Boa governança sustenta ambas as realidades simultaneamente. Executivos estão certos que IA melhora resultados agregados. ICs estão certos que IA introduz custos de precisão. O framework deve servir às duas verdades.

O Que Isso Significa na Prática

A divisão do determinismo não é um problema a ser resolvido. É uma realidade estrutural para a qual se projeta. Organizações que constroem governança de IA para um modelo mental vão alienar o outro. Organizações que fingem que a divisão não existe vão construir governança que funciona no papel e falha na prática.

Comece reconhecendo que “adoção de IA” significa coisas diferentes em diferentes níveis da organização. Depois construa governança específica o suficiente para endereçar as preocupações reais de cada nível. Políticas genéricas de IA são sinal de que a organização não fez o trabalho difícil de entender como IA interage com diferentes tipos de trabalho.

As organizações que acertarem isso não serão as com maiores taxas de uso de IA. Serão aquelas onde executivos e ICs acreditam que o framework de governança serve às suas necessidades reais.


Fontes

  • Wang, John. “Why Are Executives Enamored With AI But ICs Aren’t?” Março 2026.

Victorino Group ajuda organizações a projetar governança de IA que funciona em todos os níveis do organograma: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa