- Início
- Thinking...
- Agência na Era da IA: Por Que o Risco Real Não É Inteligência
Agência na Era da IA: Por Que o Risco Real Não É Inteligência
Dion Lim publicou esta semana um artigo propondo um novo quociente para a era da IA: o “Agency Quotient” — o Quociente de Agência. A tese é que QI e QE já não bastam. Que a capacidade de agir com intenção — transformar pensamento em resultado — é a competência decisiva.
A tese não é nova. Mas o momento é revelador.
O Conceito Não É Novo — O Contexto É
O que Lim chama de “Quociente de Agência” já foi descrito por pelo menos quatro linhas de pesquisa consolidadas: a autoeficácia de Bandura, o lócus de controle de Rotter, o grit de Duckworth e a teoria da autodeterminação de Deci e Ryan. Cada uma captura uma faceta diferente da mesma ideia: a capacidade humana de mover-se da intenção à ação com consistência.
Não é demérito que o conceito reapareça com novo nome. Conceitos importantes reaparecem porque o contexto muda — e o contexto atual mudou dramaticamente. A questão relevante não é se “QA” é um framework acadêmico original. Não é. A questão é: por que a capacidade de agir com autonomia se tornou urgente agora?
A resposta está no paradoxo que o próprio artigo identifica — e que merece mais atenção do que recebe.
O Paradoxo da Automação Não É Novo. É Pior.
Lim descreve o que chama de “paradoxo da IA”: a mesma ferramenta que recompensa agência silenciosamente a corrói. Quem usa IA com intenção clara amplifica seus resultados. Quem a usa passivamente perde, aos poucos, a capacidade de produzir resultados sem ela.
Esse paradoxo tem nome e história. Em 1983, Lisanne Bainbridge publicou “The Ironies of Automation” — um dos artigos mais influentes em fatores humanos. A ironia central: quanto mais automatizado um sistema, mais crítica se torna a competência do operador humano — e mais essa competência se atrofia pela falta de prática.
Bainbridge escreveu sobre pilotos de avião e operadores de usinas. Quarenta anos depois, o padrão se repete com desenvolvedores, analistas e executivos usando IA generativa.
A diferença é de escala. Sistemas de controle industrial afetavam centenas de operadores. A IA generativa afeta centenas de milhões de trabalhadores do conhecimento. O paradoxo de Bainbridge, que era um problema de nicho em engenharia de fatores humanos, tornou-se um problema organizacional de primeira ordem.
O Que Lim Acerta — e Onde Para Cedo Demais
O artigo usa três exemplos históricos para ilustrar falhas de agência: Tesla, o inventor, que não conseguia executar; Chamberlain, que agia sem eficácia; Brutus, que executou sem estratégia. São ilustrações válidas de um ponto importante: agência não é apenas motivação. É intenção, ação e fechamento de ciclo.
Lim também cita o livro “Superagency” de Reid Hoffman, bestseller do New York Times em 2025. Mas a citação distorce o argumento de Hoffman. “Superagency” não é sobre agência individual — é sobre empoderamento coletivo via IA. Hoffman argumenta que IA pode amplificar a capacidade de ação de comunidades e organizações inteiras, não apenas de indivíduos excepcionais. A diferença importa.
E é precisamente aqui que o artigo para cedo demais.
Quando Lim descreve a IA como uma força que pode corroer a agência humana, ele identifica o sintoma. Mas trata como um problema individual — uma questão de mentalidade pessoal. “Desenvolva seu QA.” “Cultive sua agência.”
O problema é que erosão de agência não é individual. É sistêmica.
O Problema de Verdade É Organizacional
Considere o que acontece quando uma organização implanta IA sem estrutura de governança clara:
Decisões migram silenciosamente. A IA sugere, o humano aceita. No início, é eficiência. Em seis meses, é dependência. Os operadores humanos já não lembram por que certas decisões são tomadas de determinada forma — apenas sabem que a IA recomendou e funcionou. O dia em que a IA errar, ninguém saberá corrigir.
Competência se atrofia sem aviso. Analistas que delegam análises à IA perdem a capacidade de fazê-las sozinhos. Desenvolvedores que aceitam código gerado sem revisão perdem a habilidade de detectar erros sutis. Gestores que usam IA para redigir comunicações perdem a voz própria. Nada disso aparece em métricas de produtividade — até que apareça em métricas de crise.
O ciclo de retroalimentação se fecha. Quanto mais a organização depende da IA, menos competência humana retém. Quanto menos competência retém, mais depende da IA. É o paradoxo de Bainbridge em loop organizacional.
A analogia que Lim faz com Wall-E é mais precisa do que talvez pretendesse. No filme, humanos não ficaram incapazes por preguiça individual. Ficaram incapazes porque o sistema ao redor deles tornou a incapacidade confortável. Ninguém escolheu perder a agência. O design do sistema escolheu por eles.
A Conexão Com Engenharia Agêntica
Escrevemos recentemente sobre a distinção entre “vibe coding” e “engenharia agêntica”. A conexão com a discussão de agência é direta.
Vibe coding é desenvolvimento sem agência. O desenvolvedor pede, a IA gera, o desenvolvedor aceita. Não há intenção arquitetural, não há revisão crítica, não há fechamento de ciclo com validação. É o consumo passivo de código — exatamente o tipo de comportamento que corrói competência.
Engenharia agêntica é desenvolvimento com agência preservada. O engenheiro especifica, dirige, revisa e assume propriedade. A IA amplifica a capacidade do engenheiro, mas não a substitui. O ciclo de intenção-ação-validação permanece intacto.
A mesma distinção se aplica a qualquer domínio onde IA está sendo adotada. Há um modo de usar IA que preserva e amplifica a agência humana. E há um modo que a corrói.
A diferença não está na ferramenta. Está na governança.
O Que Dados Reais Mostram
A pesquisa da Anthropic sobre padrões de desempoderamento, publicada em janeiro de 2026, oferece evidência empírica do problema. Em 1,5 milhão de conversas analisadas, identificaram padrões onde a IA distorce crenças, substitui julgamento e roteiriza ações dos usuários.
O dado mais perturbador: usuários avaliam interações desempoderadoras mais positivamente do que interações que preservam sua autonomia — pelo menos no curto prazo. Gostamos quando alguém decide por nós. Até nos arrependermos.
Isso confirma que o problema não se resolve com “consciência individual” ou “mentalidade de agência”. Se o sistema recompensa passividade no curto prazo, a maioria das pessoas será passiva. A solução precisa ser estrutural.
O Que Isso Significa na Prática
Se você lidera uma organização que está adotando IA, três perguntas importam mais do que “como aumentar a produtividade”:
Onde estão os pontos de decisão? Mapeie onde humanos decidem e onde a IA decide na sua operação. Se você não sabe responder com precisão, o problema já começou. Decisões que migraram para a IA sem deliberação explícita são decisões sem governança.
Que competências estão em risco de atrofia? Para cada processo que a IA automatizou, pergunte: seus profissionais ainda conseguem executar esse processo sem IA? Se não conseguem, você não automatizou — você criou uma dependência. E dependência sem redundância é risco operacional.
Quem responde quando a IA erra? Não em teoria — na prática. Se um analista aceita uma recomendação da IA que causa prejuízo, a responsabilidade é do analista, do gestor que implantou a ferramenta ou do fornecedor? Se a resposta não é clara, sua governança é insuficiente.
Agência Não Se Mede. Se Protege.
O artigo de Lim propõe que desenvolvamos nosso “Quociente de Agência” como desenvolvemos QI ou QE. É uma metáfora atraente, mas enganosa. QI e QE são atributos individuais. Agência — a capacidade real de transformar intenção em resultado — é produto da interação entre indivíduo e sistema.
Um profissional com alta agência num sistema que recompensa passividade terá sua agência corroída. Um profissional com agência modesta num sistema bem governado terá sua agência protegida e amplificada.
A implicação para líderes não é “meça o QA da sua equipe”. É: projete sistemas que protejam a agência de quem os opera.
Isso significa governança. Não governança como burocracia — governança como arquitetura. Definir onde a IA decide e onde o humano decide. Criar processos que mantenham competência humana ativa. Estabelecer métricas que detectem atrofia antes que ela se torne crise.
A ferramenta mais poderosa que a humanidade já criou está sendo implantada sem manual de operação. O risco real não é que a IA seja inteligente demais. É que, sem governança adequada, nós nos tornemos incapazes demais para governá-la.
Fontes
- Dion Lim. “Why IQ and EQ Aren’t Enough Anymore. The Age of AI Demands AQ.” CEO Dinner Insights, Substack, fevereiro 2026.
- Lisanne Bainbridge. “Ironies of Automation.” Automatica, vol. 19, n. 6, pp. 775–779, 1983.
- Albert Bandura. Self-Efficacy: The Exercise of Control. W.H. Freeman, 1997.
- Angela Duckworth. Grit: The Power of Passion and Perseverance. Scribner, 2016.
- Reid Hoffman. Superagency: What Could Go Right with AI. Currency, janeiro 2025.
- Anthropic. “Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage.” arXiv:2601.19062, janeiro 2026.
No Victorino Group, ajudamos organizações a construir a camada de governança que transforma capacidade de IA em resultados confiáveis — sem corroer a agência de quem opera os sistemas. Se esse tema importa para sua organização, vamos conversar.
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa