Operando IA

A Governança da Adoção de IA: Quando Mandatos Encontram Modelos Mentais

TV
Thiago Victorino
8 min de leitura
A Governança da Adoção de IA: Quando Mandatos Encontram Modelos Mentais

Google, Meta, Amazon, Microsoft, Salesforce. Todas essas empresas estão, de alguma forma, medindo o uso de IA nas avaliações de desempenho dos seus funcionários. A Conductor, empresa de marketing digital, criou uma pontuação de competência em IA de 1 a 5. O CEO resumiu a abordagem: “Estamos usando cenouras e varas.”

O dado mais recente da Section (outubro de 2025) mostra que 42% dos trabalhadores de tecnologia dizem que seus gerentes esperam uso de IA. Oito meses antes, eram 32%. A curva é clara.

Ao mesmo tempo, quase metade das empresas de tecnologia e telecom reportam retorno positivo em IA generativa, segundo pesquisa conjunta da Wharton e GBK. Existe pressão real por resultados. E existe, pelo menos em parte, evidência de que os resultados aparecem.

Então por que tratar isso como problema?

Conformidade Não É Competência

O CEO da Autodesk disse sobre funcionários que resistem à IA: “Eles provavelmente não vão sobreviver a longo prazo.” A Salesforce agora exige que PTO (folga remunerada) seja solicitado via agente de IA, e reporta que “basicamente 100%” dos funcionários usam IA.

Esses números parecem impressionantes. Não são.

Quando você obriga alguém a usar uma ferramenta, a pessoa usa a ferramenta. Isso não significa que ela sabe usá-la bem, que entende quando a ferramenta ajuda e quando atrapalha, ou que mudou seu processo de trabalho de forma substantiva. Significa que ela marcou uma caixa.

A Salesforce pode dizer que todos usam IA. O que ela não pode dizer é quantos desses usos geram valor real versus conformidade mecânica. Solicitar PTO por um agente não prova competência em IA. Prova que o canal antigo foi desligado.

Há uma diferença fundamental entre adoção que aparece em dashboards e adoção que aparece em resultados.

O Problema Que Mandatos Não Resolvem

Um artigo publicado recentemente no Medium com o título “Your AI Feature Works. So Why Don’t Users Care?” oferece um diagnóstico útil. O autor propõe quatro dimensões que determinam se alguém vai realmente adotar uma capacidade de IA:

Zona de conforto tecnológico. Qual é a familiaridade do usuário com o tipo de ferramenta? Alguém que nunca usou linha de comando não vai adotar Claude Code amanhã, independente do mandato.

Modelo mental da tarefa. Como a pessoa entende o que está fazendo? Um redator que pensa em escrita como “colocar palavras no papel” vai usar IA de forma diferente de um redator que pensa em escrita como “estruturar argumentos”. O mesmo prompt produz resultados radicalmente diferentes dependendo do modelo mental de quem o escreve.

Modelo mental da IA. O que a pessoa acha que a IA faz? Quem entende a IA como “autocomplete sofisticado” vai subutilizá-la. Quem entende como “oráculo infalível” vai confiar demais. Os dois modelos mentais estão errados, e nenhum mandato corporativo os corrige.

Velocidade cognitiva versus velocidade da IA. A IA produz output mais rápido do que a maioria das pessoas consegue avaliar. Isso cria um problema sutil: o gargalo deixa de ser a produção e passa a ser o julgamento. Se a organização mede apenas velocidade de output, incentiva exatamente o comportamento errado.

O insight central é direto: “Se você está batendo na porta errada, ninguém vai atender.” Mandatos batem em todas as portas simultaneamente. Modelos mentais determinam quais portas abrem.

Gosto Constante, Julgamento Ausente

Eno Reyes, CEO da Factory (empresa que vende agentes de código IA), publicou um ensaio chamado “Automating Taste” com uma tese provocadora: “Humanos têm bom gosto em rajadas. IA pode ser projetada para ter gosto decente, constantemente.”

A observação tem mérito. Consistência é uma vantagem real de sistemas automatizados. Um agente de code review aplica os mesmos critérios às 3 da manhã que aplica ao meio-dia. Um humano cansado, não.

Mas “gosto decente constante” não é a mesma coisa que “bom julgamento”. Gosto, no sentido que Reyes usa, é reconhecimento de padrões: este código segue as convenções, esta interface respeita princípios de design, este texto está claro. Julgamento é outra coisa. Julgamento pergunta: estamos resolvendo o problema certo? Este padrão deveria ser quebrado aqui? O contexto mudou de forma que invalida a convenção?

Reyes tem interesse comercial direto na tese que defende. A Factory vende exatamente o tipo de automação que se beneficia quando empresas aceitam que “gosto decente constante” é suficiente. Isso não invalida a observação, mas calibra a leitura.

O ponto relevante para governança é este: mandatos de adoção de IA otimizam para consistência. Pontuações de competência, métricas de uso, avaliações de desempenho atreladas a IA. Tudo isso mede se a ferramenta está sendo usada. Nada disso mede se o julgamento humano está melhorando junto com o uso.

O Que Governança Deveria Medir

Se mandatos medem a coisa errada, o que deveria ser medido?

Três indicadores importam mais do que frequência de uso:

Qualidade das decisões de quando não usar. O funcionário que decide não usar IA em determinada tarefa, e acerta, demonstra mais maturidade do que o que usa IA em tudo por obrigação. Medir apenas uso cria um viés de ação. A competência real inclui saber parar.

Evolução do modelo mental. Em janeiro, o funcionário usava IA como autocomplete. Em março, está usando para explorar alternativas de design. Em junho, está definindo restrições para agentes autônomos. Essa progressão indica aprendizado real. Frequência de uso, sozinha, não captura nada disso.

Capacidade de verificação. O dado do METR (2025) permanece relevante: desenvolvedores usando IA se perceberam 24% mais rápidos, mas foram 19% mais lentos. A percepção descolou da realidade em 43 pontos percentuais. A governança precisa medir não apenas se a pessoa usa IA, mas se ela verifica o que a IA produz. Confiança sem verificação é o risco operacional mais silencioso que existe.

O Padrão Que Se Repete

Essa dinâmica não é nova. Toda adoção tecnológica corporativa passa pelo mesmo ciclo: entusiasmo executivo, mandato de uso, conformidade superficial, frustração com resultados. Aconteceu com ERP, com CRM, com metodologias ágeis.

O que diferencia as organizações que extraem valor real é a mesma coisa em todos os ciclos: investimento em mudar como as pessoas pensam sobre o trabalho, não apenas quais ferramentas usam.

A Ably (caso que analisei em janeiro) entendeu isso. O maior investimento não foi em ferramentas, mas em conectar 15 serviços internos via MCP para que a IA tivesse contexto real. A frase que resume: “Os maiores ganhos vêm de como as pessoas pensam, não das ferramentas.”

Empresas que tratam IA como checkbox vão reportar adoção de 100% e resultados de 10%.

Da Vara para o Ambiente

A governança da adoção de IA precisa migrar de um modelo punitivo para um modelo de ambiente. Em vez de medir se as pessoas usam IA, projetar o contexto dentro do qual o uso de IA se torna natural e produtivo.

Isso significa três coisas concretas:

Primeira: conectar a IA aos dados e sistemas que as pessoas já usam. Ninguém adota uma ferramenta que exige copiar e colar entre cinco janelas. MCP, APIs internas, integrações nativas. A fricção é a métrica mais honesta de adoção. Se a fricção é alta, o mandato compensa com conformidade vazia.

Segunda: investir em modelos mentais antes de investir em métricas de uso. Workshops que mostram não apenas como usar a ferramenta, mas como pensar diferente sobre o trabalho que a ferramenta executa. Um redator que entende que IA é melhor para explorar variações do que para produzir rascunhos finais vai usá-la de forma fundamentalmente diferente.

Terceira: medir julgamento, não uso. Criar mecanismos que capturem quando alguém identifica um erro da IA, quando decide não usar IA para uma tarefa específica, quando evolui de uso básico para uso sofisticado. Essas são as métricas que predizem valor real.

A Conductor pode dar notas de 1 a 5 em competência de IA. Mas se a nota 5 vai para quem usa IA em tudo, incluindo tarefas onde IA atrapalha, a escala está calibrada ao contrário.

A Escolha Real

Estamos em um momento onde a pressão por adoção é real, os resultados iniciais são promissores, e a tentação de resolver o problema com mandatos é forte.

Mandatos funcionam para compliance. Se o objetivo é dizer “100% dos funcionários usam IA”, basta desligar os canais alternativos. A Salesforce provou que isso funciona.

Se o objetivo é extrair valor real, a pergunta muda. Não é “quantas pessoas usam IA” mas “quantas pessoas pensam diferente por causa da IA”. Essa segunda pergunta é mais difícil de medir, mais difícil de governar, e produz resultados que não cabem em dashboards trimestrais.

Mas é a pergunta certa.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa