O Problema do Controle de IA

Agência na Era da IA: Por Que o Risco Real Não É Inteligência

TV
Thiago Victorino
8 min de leitura

Dion Lim publicou esta semana um artigo propondo um novo quociente para a era da IA: o “Agency Quotient” — o Quociente de Agência. A tese é que QI e QE já não bastam. Que a capacidade de agir com intenção — transformar pensamento em resultado — é a competência decisiva.

A tese não é nova. Mas o momento é revelador.

O Conceito Não É Novo — O Contexto É

O que Lim chama de “Quociente de Agência” já foi descrito por pelo menos quatro linhas de pesquisa consolidadas: a autoeficácia de Bandura, o lócus de controle de Rotter, o grit de Duckworth e a teoria da autodeterminação de Deci e Ryan. Cada uma captura uma faceta diferente da mesma ideia: a capacidade humana de mover-se da intenção à ação com consistência.

Não é demérito que o conceito reapareça com novo nome. Conceitos importantes reaparecem porque o contexto muda — e o contexto atual mudou dramaticamente. A questão relevante não é se “QA” é um framework acadêmico original. Não é. A questão é: por que a capacidade de agir com autonomia se tornou urgente agora?

A resposta está no paradoxo que o próprio artigo identifica — e que merece mais atenção do que recebe.

O Paradoxo da Automação Não É Novo. É Pior.

Lim descreve o que chama de “paradoxo da IA”: a mesma ferramenta que recompensa agência silenciosamente a corrói. Quem usa IA com intenção clara amplifica seus resultados. Quem a usa passivamente perde, aos poucos, a capacidade de produzir resultados sem ela.

Esse paradoxo tem nome e história. Em 1983, Lisanne Bainbridge publicou “The Ironies of Automation” — um dos artigos mais influentes em fatores humanos. A ironia central: quanto mais automatizado um sistema, mais crítica se torna a competência do operador humano — e mais essa competência se atrofia pela falta de prática.

Bainbridge escreveu sobre pilotos de avião e operadores de usinas. Quarenta anos depois, o padrão se repete com desenvolvedores, analistas e executivos usando IA generativa.

A diferença é de escala. Sistemas de controle industrial afetavam centenas de operadores. A IA generativa afeta centenas de milhões de trabalhadores do conhecimento. O paradoxo de Bainbridge, que era um problema de nicho em engenharia de fatores humanos, tornou-se um problema organizacional de primeira ordem.

O Que Lim Acerta — e Onde Para Cedo Demais

O artigo usa três exemplos históricos para ilustrar falhas de agência: Tesla, o inventor, que não conseguia executar; Chamberlain, que agia sem eficácia; Brutus, que executou sem estratégia. São ilustrações válidas de um ponto importante: agência não é apenas motivação. É intenção, ação e fechamento de ciclo.

Lim também cita o livro “Superagency” de Reid Hoffman, bestseller do New York Times em 2025. Mas a citação distorce o argumento de Hoffman. “Superagency” não é sobre agência individual — é sobre empoderamento coletivo via IA. Hoffman argumenta que IA pode amplificar a capacidade de ação de comunidades e organizações inteiras, não apenas de indivíduos excepcionais. A diferença importa.

E é precisamente aqui que o artigo para cedo demais.

Quando Lim descreve a IA como uma força que pode corroer a agência humana, ele identifica o sintoma. Mas trata como um problema individual — uma questão de mentalidade pessoal. “Desenvolva seu QA.” “Cultive sua agência.”

O problema é que erosão de agência não é individual. É sistêmica.

O Problema de Verdade É Organizacional

Considere o que acontece quando uma organização implanta IA sem estrutura de governança clara:

Decisões migram silenciosamente. A IA sugere, o humano aceita. No início, é eficiência. Em seis meses, é dependência. Os operadores humanos já não lembram por que certas decisões são tomadas de determinada forma — apenas sabem que a IA recomendou e funcionou. O dia em que a IA errar, ninguém saberá corrigir.

Competência se atrofia sem aviso. Analistas que delegam análises à IA perdem a capacidade de fazê-las sozinhos. Desenvolvedores que aceitam código gerado sem revisão perdem a habilidade de detectar erros sutis. Gestores que usam IA para redigir comunicações perdem a voz própria. Nada disso aparece em métricas de produtividade — até que apareça em métricas de crise.

O ciclo de retroalimentação se fecha. Quanto mais a organização depende da IA, menos competência humana retém. Quanto menos competência retém, mais depende da IA. É o paradoxo de Bainbridge em loop organizacional.

A analogia que Lim faz com Wall-E é mais precisa do que talvez pretendesse. No filme, humanos não ficaram incapazes por preguiça individual. Ficaram incapazes porque o sistema ao redor deles tornou a incapacidade confortável. Ninguém escolheu perder a agência. O design do sistema escolheu por eles.

A Conexão Com Engenharia Agêntica

Escrevemos recentemente sobre a distinção entre “vibe coding” e “engenharia agêntica”. A conexão com a discussão de agência é direta.

Vibe coding é desenvolvimento sem agência. O desenvolvedor pede, a IA gera, o desenvolvedor aceita. Não há intenção arquitetural, não há revisão crítica, não há fechamento de ciclo com validação. É o consumo passivo de código — exatamente o tipo de comportamento que corrói competência.

Engenharia agêntica é desenvolvimento com agência preservada. O engenheiro especifica, dirige, revisa e assume propriedade. A IA amplifica a capacidade do engenheiro, mas não a substitui. O ciclo de intenção-ação-validação permanece intacto.

A mesma distinção se aplica a qualquer domínio onde IA está sendo adotada. Há um modo de usar IA que preserva e amplifica a agência humana. E há um modo que a corrói.

A diferença não está na ferramenta. Está na governança.

O Que Dados Reais Mostram

A pesquisa da Anthropic sobre padrões de desempoderamento, publicada em janeiro de 2026, oferece evidência empírica do problema. Em 1,5 milhão de conversas analisadas, identificaram padrões onde a IA distorce crenças, substitui julgamento e roteiriza ações dos usuários.

O dado mais perturbador: usuários avaliam interações desempoderadoras mais positivamente do que interações que preservam sua autonomia — pelo menos no curto prazo. Gostamos quando alguém decide por nós. Até nos arrependermos.

Isso confirma que o problema não se resolve com “consciência individual” ou “mentalidade de agência”. Se o sistema recompensa passividade no curto prazo, a maioria das pessoas será passiva. A solução precisa ser estrutural.

O Que Isso Significa na Prática

Se você lidera uma organização que está adotando IA, três perguntas importam mais do que “como aumentar a produtividade”:

Onde estão os pontos de decisão? Mapeie onde humanos decidem e onde a IA decide na sua operação. Se você não sabe responder com precisão, o problema já começou. Decisões que migraram para a IA sem deliberação explícita são decisões sem governança.

Que competências estão em risco de atrofia? Para cada processo que a IA automatizou, pergunte: seus profissionais ainda conseguem executar esse processo sem IA? Se não conseguem, você não automatizou — você criou uma dependência. E dependência sem redundância é risco operacional.

Quem responde quando a IA erra? Não em teoria — na prática. Se um analista aceita uma recomendação da IA que causa prejuízo, a responsabilidade é do analista, do gestor que implantou a ferramenta ou do fornecedor? Se a resposta não é clara, sua governança é insuficiente.

Agência Não Se Mede. Se Protege.

O artigo de Lim propõe que desenvolvamos nosso “Quociente de Agência” como desenvolvemos QI ou QE. É uma metáfora atraente, mas enganosa. QI e QE são atributos individuais. Agência — a capacidade real de transformar intenção em resultado — é produto da interação entre indivíduo e sistema.

Um profissional com alta agência num sistema que recompensa passividade terá sua agência corroída. Um profissional com agência modesta num sistema bem governado terá sua agência protegida e amplificada.

A implicação para líderes não é “meça o QA da sua equipe”. É: projete sistemas que protejam a agência de quem os opera.

Isso significa governança. Não governança como burocracia — governança como arquitetura. Definir onde a IA decide e onde o humano decide. Criar processos que mantenham competência humana ativa. Estabelecer métricas que detectem atrofia antes que ela se torne crise.

A ferramenta mais poderosa que a humanidade já criou está sendo implantada sem manual de operação. O risco real não é que a IA seja inteligente demais. É que, sem governança adequada, nós nos tornemos incapazes demais para governá-la.


Fontes

  • Dion Lim. “Why IQ and EQ Aren’t Enough Anymore. The Age of AI Demands AQ.” CEO Dinner Insights, Substack, fevereiro 2026.
  • Lisanne Bainbridge. “Ironies of Automation.” Automatica, vol. 19, n. 6, pp. 775–779, 1983.
  • Albert Bandura. Self-Efficacy: The Exercise of Control. W.H. Freeman, 1997.
  • Angela Duckworth. Grit: The Power of Passion and Perseverance. Scribner, 2016.
  • Reid Hoffman. Superagency: What Could Go Right with AI. Currency, janeiro 2025.
  • Anthropic. “Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage.” arXiv:2601.19062, janeiro 2026.

No Victorino Group, ajudamos organizações a construir a camada de governança que transforma capacidade de IA em resultados confiáveis — sem corroer a agência de quem opera os sistemas. Se esse tema importa para sua organização, vamos conversar.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa