O Problema do Controle de IA

80.508 Pessoas Disseram à Anthropic o Que Querem da IA. 14,7% Disseram Governança.

TV
Thiago Victorino
10 min de leitura
80.508 Pessoas Disseram à Anthropic o Que Querem da IA. 14,7% Disseram Governança.

A Anthropic publicou o maior estudo qualitativo sobre IA já realizado. 80.508 participantes. 159 países. 70 idiomas. As entrevistas aconteceram em dezembro de 2025, e os resultados chegaram em março de 2026.

O número de manchete é previsível: 67% de sentimento positivo. A Anthropic vai usar isso no marketing. Céticos vão apontar viés de seleção. Os dois lados vão ignorar a descoberta que realmente importa.

Benefícios e danos não pertencem a grupos opostos. Eles coexistem dentro das mesmas pessoas.

O estudo que ninguém mais conseguiria fazer

Contexto obrigatório antes de interpretar qualquer dado. A Anthropic entrevistou seus próprios usuários sobre suas experiências com IA. A amostra é autosselecionada: são pessoas que já usam o Claude, concordaram em participar e se interessaram o suficiente para responder. Aquele sentimento positivo de 67% precisa de um asterisco proporcional.

Os tamanhos das amostras regionais não foram divulgados. O título “159 países” impressiona até você considerar que uma única resposta de Liechtenstein conta tecnicamente. Saffron Huang e os mais de 20 pesquisadores que lideraram o projeto desenharam um framework qualitativo rigoroso. Mas o recorte amostral limita o que se pode generalizar.

Nada disso torna os achados inúteis. Torna-os específicos. Este é o maior conjunto de dados que temos sobre como usuários ativos de IA experimentam a tecnologia. Dentro desse recorte, os padrões são reveladores.

Os números que valem atenção

O estudo identifica cinco categorias de desejo e treze de preocupação. Os desejos contam a história esperada: excelência profissional (18,8%) e produtividade lideram. Produtividade foi a aspiração mais realizada, com 32,0% dos respondentes dizendo que a IA já os ajudou nisso.

As preocupações são mais interessantes.

Falta de confiabilidade e alucinações lideram com 26,7%. Deslocamento de empregos vem em segundo com 22,3%. Perda de autonomia ocupa o terceiro lugar com 21,9%. E preocupações com governança ficam em quarto, com 14,7%.

Esse 14,7% é notável. Não porque o número é grande. Porque ele existe.

Essas pessoas não são formuladoras de políticas públicas. Não são oficiais de conformidade ou consultores de governança. São usuários comuns, gente pedindo ajuda ao Claude para lição de casa, rascunho de emails, depuração de código. Quase uma em cada sete identificou governança como preocupação espontaneamente, sem ser direcionada a pensar nisso.

Quando escrevemos sobre o déficit de confiança usando dados da pesquisa de desenvolvedores do Stack Overflow, o padrão era claro: 84% dos desenvolvedores usavam IA, apenas 33% confiavam no resultado. Eram 49 mil desenvolvedores em uma única profissão. O estudo da Anthropic estende o mesmo padrão para 80 mil pessoas em todas as profissões e regiões. A escala mudou. O sinal permaneceu idêntico.

Trabalhadores independentes: a população canário

O subgrupo mais revelador do estudo é o de trabalhadores independentes. Freelancers, empreendedores solo, trabalhadores de plataforma. Eles reportaram o maior benefício econômico da IA: 47% disseram que a tecnologia os ajudou economicamente, contra 14% dos empregados em instituições estabelecidas.

Também reportaram a maior pressão econômica. A mesma população que experimenta o maior benefício experimenta o maior aperto. Isso não é contradição. É o mesmo mecanismo visto de dois ângulos.

Quando você é independente, IA é sua alavanca. Permite que uma pessoa faça o trabalho de três. Mas também permite que seu concorrente faça o mesmo. A vantagem de produtividade evapora conforme a adoção se espalha, e o que era alavanca vira requisito mínimo. Você corre mais rápido para ficar no mesmo lugar.

No Brasil, essa dinâmica é ainda mais aguda. O país tem 25 milhões de trabalhadores por conta própria segundo o IBGE. Para um freelancer em Recife ou Belo Horizonte, a IA representa simultaneamente a chance de competir com agências de São Paulo e o risco de ser substituído por um prompt bem escrito. Os 47% que reportam ganho econômico e os que sentem o aperto não são grupos diferentes. São as mesmas pessoas em momentos diferentes da curva de adoção.

Advogados e o problema de confiabilidade

Entre subgrupos profissionais, advogados se destacam. 48% dos advogados no estudo reportaram ter experimentado falta de confiabilidade em primeira mão. Quase metade.

Isso importa porque o trabalho jurídico tem a menor tolerância a erros. Uma citação de jurisprudência alucinada não é um inconveniente. É responsabilidade profissional. Quando metade dos advogados usando IA encontra falhas de confiabilidade, a tecnologia não está pronta para trabalho jurídico sem camadas de verificação.

O número geral de confiabilidade (26,7% citando como preocupação principal) subestima o problema. Esse é o percentual que nomeou como preocupação. O percentual que experimentou é maior. E 18,9% de todos os respondentes reportaram expectativas não atendidas, indicando que a distância entre o que a IA promete e o que entrega contínua ampla.

Como analisamos nos padrões de perda de autonomia por IA, o risco não é apenas que a IA erre. É que erre com confiança. Um profissional de saúde no estudo descreveu como “o Claude juntou as peças históricas, levando ao meu diagnóstico correto.” Essa é uma história de sucesso. Mas também é uma história sobre alguém dependendo de IA para raciocínio médico. A distância entre uma síntese correta e uma alucinação confiante é invisível para o usuário.

Cinco tensões, uma descoberta

Os pesquisadores da Anthropic organizaram seus achados em cinco tensões de “Luz e Sombra”. Benefícios e danos não se distribuem entre populações diferentes. Aparecem na mesma pessoa, frequentemente do mesmo caso de uso.

Um engenheiro de software no México disse: “Agora consigo sair do trabalho a tempo de buscar meus filhos na escola.” Ganho de produtividade. Melhoria na vida familiar. Esse mesmo ganho de produtividade, escalado pela profissão inteira, cria a pressão de deslocamento que 22,3% dos respondentes temem.

As cinco tensões:

  1. IA melhora capacidade individual enquanto cria pressão coletiva de deslocamento.
  2. IA aumenta autonomia na execução de tarefas enquanto reduz autonomia na trajetória de carreira.
  3. IA democratiza acesso à expertise enquanto desvaloriza a própria expertise.
  4. IA entrega produtividade mensurável enquanto corrói habilidades imensuráveis.
  5. IA satisfaz necessidades imediatas enquanto cria dependências de longo prazo.

O framework é elegante. Também é conveniente para a Anthropic. A empresa se beneficia ao enquadrar os danos como inseparáveis dos benefícios, porque esse enquadramento dificulta argumentos de restrição. Se não dá para ter a luz sem a sombra, regulação parece fútil. Conclusão confortável para quem vende a luz.

Mas o framework não está errado só porque é conveniente. Os dados o sustentam. A coexistência de benefício e dano dentro dos mesmos indivíduos é a descoberta mais útil do estudo, porque invalida o modelo mental que a maioria das organizações usa.

O modelo mental que quebra

A maioria dos frameworks de governança pressupõe uma separação limpa. Existem usos benéficos e usos nocivos. Você permite os primeiros e restringe os segundos. Avaliações de risco classificam casos de uso em categorias aprovadas e reprovadas. Políticas traçam linhas claras.

Os dados da Anthropic sugerem que essas linhas não existem na prática. O mesmo caso de uso que economiza duas horas de um trabalhador também atrofia a habilidade que ele usava para fazer aquele trabalho manualmente. A mesma ferramenta que ajuda um consultor independente a competir com uma grande empresa também permite que a grande empresa elimine o contrato do consultor.

A variação regional reforça esse ponto. Respondentes da Europa Ocidental priorizaram privacidade. Respondentes do Leste Asiático se preocuparam com atrofia cognitiva. Respondentes da África e do Sul da Ásia focaram em confiabilidade básica. A mesma ferramenta, sociedades diferentes, modos de falha diferentes.

Para o Brasil, a implicação é direta. A LGPD estabelece um marco regulatório para dados pessoais, mas não cobre a dimensão epistêmica que o estudo revela. Quando um funcionário usa IA para fundamentar uma análise financeira ou um parecer jurídico, o raciocínio do modelo entra na cadeia decisória da organização sem que ninguém tenha auditado as premissas. A preocupação com governança (14,7% dos respondentes) nasce dessa percepção: os benefícios que aproveito coexistem com riscos que não consigo controlar sozinho.

O que isso significa para organizações

Três implicações sobrevivem à crítica de viés de seleção.

Primeira: pesquisas internas que perguntam “a IA está ajudando?” medem a coisa errada. Os dados mostram que 81% disseram que a IA avançou sua visão declarada. Parece sucesso esmagador. Mas coexiste com 26,7% citando falta de confiabilidade, 22,3% temendo deslocamento e 18,9% reportando expectativas frustradas. “Útil” e “prejudicial” não são opostos. Meça ambos. Separadamente.

Segunda: governança não pode ser aplicada sobre a adoção como uma camada posterior. Precisa ser construída junto. Se benefícios e danos vêm dos mesmos casos de uso, não dá para governar restringindo casos de uso. Governa-se construindo verificação, mensuração e responsabilização dentro do próprio uso. Isso significa portões de qualidade, processos de revisão de output e programas de preservação de competências rodando em paralelo com as ferramentas de produtividade.

Terceira: variação regional e por função significa que política centralizada de IA vai falhar. Uma empresa global não pode escrever uma única política de uso aceitável e esperar que funcione para jurídico (48% de falta de confiabilidade), contratados independentes (47% de benefício com maior pressão) e trabalhadores do conhecimento (preocupação com atrofia cognitiva). A política precisa ser granular o suficiente para endereçar perfis de risco específicos.

O paradoxo da Anthropic

Vale registrar algo sobre a Anthropic publicar essa pesquisa. A empresa construiu o Claude. Pesquisou usuários do Claude. Encontrou 67% de sentimento positivo. E então publicou o dataset completo, incluindo os 14,7% de preocupação com governança, os 22,3% de medo de deslocamento e as citações nada lisonjeiras sobre demissões.

Leitura cínica: transparência é boa estratégia de relações públicas. Publicar achados críticos imuniza contra a acusação de que você os suprimiu. O enquadramento “Luz e Sombra” faz os danos parecerem inevitáveis em vez de endereçáveis.

Leitura direta: a Anthropic contratou Saffron Huang, que liderou trabalhos anteriores sobre alinhamento deliberativo e input democrático, para conduzir o estudo. A metodologia é mais rigorosa que a maioria das pesquisas da indústria. O tamanho da amostra supera qualquer coisa que governos ou instituições acadêmicas produziram sobre o tema.

As duas leituras podem ser verdadeiras. Essa é, no fim, a própria tese do estudo. Luz e sombra coexistem.

O que importa para organizações não é se os motivos da Anthropic são puros. O que importa é que 80.508 pontos de dados confirmam o que estudos menores vêm mostrando há dois anos: adoção de IA sem infraestrutura de governança cria risco que se acumula silenciosamente. E as pessoas que vivem esse risco conseguem enxergá-lo, mesmo quando suas organizações não conseguem.

Os 14,7% que apontaram governança como preocupação não precisaram de consultor para chegar a essa conclusão. Chegaram pela experiência vivida. A pergunta é se sua organização vai chegar pela mesma via, ou vai construir a infraestrutura antes que a lição fique cara.


Fontes

  • Anthropic. “What 81,000 People Want From AI.” Março 2026.
  • Stack Overflow. “2025 Developer Survey.” 49.000+ respondentes.
  • Anthropic. “Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage.” Janeiro 2026.

O Victorino Group ajuda organizações a construir governança de IA que reflete o que esses dados mostram: benefícios e danos chegam juntos: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa