O Problema do Controle de IA

Expertise de Domínio Ainda Importa: A Lacuna de Confiança na IA Não Está Fechando

TV
Thiago Victorino
10 min de leitura
Expertise de Domínio Ainda Importa: A Lacuna de Confiança na IA Não Está Fechando

O Stack Overflow pesquisou quase 900 desenvolvedores em fevereiro de 2026, em parceria com a OpenAI, sobre como aprendem e trabalham com IA. O número de manchete é que a adoção continua acelerando: 64% usam IA para aprender, contra 44% em 2025 e 37% em 2024. Uso diário de IA no trabalho subiu de 47% para 58% em um ano.

O dado que importa é o que aparece nos números de verificação cruzada: apenas 1% dos desenvolvedores usa IA sozinha. Os outros 99% conferem a saída contra outra fonte. 58% cruzam IA com documentação técnica. 54% usam outros recursos online. 50% verificam contra o Stack Overflow. Desenvolvedores não substituíram sua infraestrutura de conhecimento. Adicionaram uma camada de verificação por cima dela.

Isso é o imposto da IA aplicado ao aprendizado. Não é uma linha no orçamento. Não é uma categoria contábil. É uma adaptação comportamental que desenvolvedores construíram por conta própria porque suas organizações não construíram por eles.

O gradiente da experiência

A pesquisa revela um gradiente limpo entre nível de experiência e comportamento de confiança que deveria incomodar as organizações.

Desenvolvedores em início de carreira (68% de uso diário) recorrem à IA primeiro 36% das vezes. Desenvolvedores de carreira intermediária (59% diário) recorrem à IA primeiro 39% das vezes. Desenvolvedores experientes (56% diário) estão em quase paridade: 29% vão à IA primeiro, 30% vão à documentação técnica primeiro.

O padrão é preciso. Conforme desenvolvedores acumulam expertise de domínio, ficam menos dispostos a confiar na IA como ponto de partida. Não porque usam menos — desenvolvedores experientes ainda usam IA diariamente em taxas majoritárias. Porque aprenderam, por exposição repetida, onde a saída da IA falha.

É a mesma assimetria de senioridade que documentamos em A Dívida de Verificação da IA. Desenvolvedores seniores gastam 4,3 minutos revisando cada sugestão de IA. Juniores gastam 1,2 minuto. Os dados do Stack Overflow adicionam contexto: seniores não estão apenas revisando com mais cuidado. Estão estruturalmente menos dispostos a começar pela saída da IA. Contornam o problema de confiança escolhendo um ponto de partida mais confiável.

A implicação organizacional é direta. Seus engenheiros mais experientes — aqueles de cujo julgamento você depende para decisões de arquitetura, revisões de segurança e confiabilidade em produção — são os menos dispostos a aceitar saída de IA sem questionar. Estão dizendo algo sobre a qualidade da saída. A questão é se sua organização está ouvindo.

Confiança está caindo, não subindo

O Stack Overflow reporta que a confiança em IA caiu entre as pesquisas de 2024 e 2025. A pesquisa de pulso de 2026 mostra o padrão se mantendo: 38% dos respondentes citam “falta de confiança nos resultados” como a principal barreira para usar IA no aprendizado. Entre usuários semanais, o número sobe para 47%.

Isso contradiz a narrativa predominante de que confiança melhora com familiaridade. Usuários diários reportam confiança um pouco maior (49% nos dados de 2025, contra 30% para semanais). Mas a direção da tendência agregada é descendente, não ascendente. Mais pessoas usam IA. Menos confiam nela. A lacuna entre adoção e confiança está se alargando.

A lacuna importa porque não é irracional. Como exploramos em O Imposto da Verificação, o estudo da Foxit mostrou que executivos reportam economizar 4,6 horas por semana com IA enquanto gastam 4,3 horas verificando a saída. Trabalhadores reportam perda líquida de 14 minutos semanais. Os desenvolvedores na pesquisa do Stack Overflow exibem a mesma resposta racional: usam a ferramenta, mas verificam tudo que ela produz.

Jessica Talisman, arquiteta de informação citada na análise do Stack Overflow, identifica a questão estrutural com precisão: LLMs “imitam a cadeia documental de citações e notas de rodapé sem cumprir o dever de manter a proveniência.” A saída parece autoritativa. Falta a cadeia de verificação que torna a autoridade conquistada, não encenada.

A consolidação que não é substituição

Um dado na pesquisa do Stack Overflow merece mais atenção do que vai receber.

Em 2024, 49% dos desenvolvedores usavam oito ou mais recursos de aprendizado. Em 2025, esse número caiu para 9%. Em 2026, 7%. Desenvolvedores estão consolidando suas pilhas de ferramentas. Menos recursos. Mais foco. Mas — e este é o detalhe crítico — a consolidação não é uma substituição conduzida pela IA. Está acontecendo entre usuários e não usuários de IA em taxas similares.

O que está acontecendo não é “IA substituindo documentação.” É desenvolvedores simplificando seus fluxos de trabalho enquanto mantêm ciclos de verificação. IA se torna uma entrada. Documentação se torna a checagem. Stack Overflow se torna o desempate. O ecossistema não está colapsando na direção da IA. Está se reorganizando ao redor da IA com conhecimento curado por humanos como camada de validação.

É assim que o “imposto da IA” se parece quando desenvolvedores o projetam por conta própria. Não é um framework de governança mandatado pela gestão. Não é uma checklist de verificação de uma equipe de compliance. É um padrão comportamental de baixo para cima, onde cada desenvolvedor independentemente concluiu que a saída de IA requer verificação cruzada antes de poder ser confiável.

O problema com soluções de baixo para cima é que são invisíveis para a organização. Nenhum dashboard rastreia comportamento de verificação cruzada. Nenhum planejamento de sprint orça tempo para “verificar o que a IA me disse.” Nenhuma métrica de produtividade contabiliza os 99% de desenvolvedores que não confiam na saída de IA o suficiente para usá-la sozinha.

O sinal do ceticismo agêntico

A pesquisa do Stack Overflow inclui uma seção sobre IA agêntica que se lê como um aviso.

Quando perguntados se deixariam um agente de IA representá-los em uma busca de emprego, 27,6% disseram “definitivamente não.” 23,8% disseram que aceitariam apenas sob condições. As principais condições: intervenção humana disponível em todas as etapas (46%) e uso transparente de dados (44%).

É a lacuna de confiança se estendendo além da qualidade da saída para a autonomia operacional. Desenvolvedores que usam IA diariamente, que a integraram em seus fluxos de aprendizado, que reconhecem que ela está melhorando — esses mesmos desenvolvedores se recusam a conceder a agentes de IA autoridade não supervisionada sobre seus interesses profissionais.

A implicação para organizações implantando IA agêntica é clara. As pessoas mais próximas das ferramentas de IA são as mais cautelosas sobre expandir a autonomia da IA. Como argumentamos em A Arquitetura da Confiança em Agentes, agentes confiáveis exigem limites estruturais, não apenas modelos melhores. Os dados do Stack Overflow mostram que as pessoas que mais entendem de IA concordam com essa avaliação.

O que a lacuna de confiança exige

A persistência da lacuna de confiança ao longo de três anos de dados do Stack Overflow, apesar do crescimento massivo de adoção, estabelece algo importante: a lacuna não é um estado de transição. É uma característica estrutural de como a IA produz saída.

IA gera texto plausível sem proveniência. Desenvolvedores verificam texto plausível contra fontes autoritativas. Esse ciclo não fica mais rápido com modelos melhores. Fica mais rápido com infraestrutura de verificação melhor.

Três implicações para organizações.

Orce o imposto. Se 99% dos seus desenvolvedores fazem verificação cruzada da saída de IA, esse tempo de verificação é um custo real. Meça-o. Inclua-o nos planos de projeto. Pare de celebrar métricas de adoção de IA que ignoram o custo de verificação que segue cada adoção.

Invista na checagem, não só na geração. Os 58% de desenvolvedores que usam documentação técnica junto com IA estão dizendo o que precisam: acesso rápido a conhecimento autoritativo, curado, com proveniência rastreável. Cada real investido em tornar a documentação mais rápida, mais pesquisável e mais atual reduz o imposto da IA mais efetivamente do que um modelo melhor.

Respeite o gradiente da experiência. A relutância dos seus desenvolvedores seniores em confiar na saída de IA não é tecnofobia. É julgamento calibrado construído sobre anos de reconhecimento de padrões. Projete sua governança de IA ao redor dos padrões deles, não ao redor do entusiasmo de desenvolvedores que ainda não aprenderam onde as falhas se escondem.

Os dados do Stack Overflow são um censo de desenvolvedores se adaptando à IA em seus próprios termos. Adotaram as ferramentas. Não adotaram a confiança. Até que as organizações construam a infraestrutura de verificação que corresponda ao que desenvolvedores já fazem informalmente, a lacuna de confiança na IA vai persistir — não como um problema a resolver, mas como um imposto a pagar.


Fontes

  • Stack Overflow. “Domain Expertise Still Wanted: The Latest Trends in AI.” stackoverflow.blog, 16 de março de 2026.
  • Stack Overflow. “2025 Developer Survey.” stackoverflow.co/survey/2025.
  • Stack Overflow. “2024 Developer Survey.” stackoverflow.co/survey/2024.
  • Foxit. “State of Document Intelligence.” Março 2026.
  • Jessica Talisman. “Where Provenance Ends, Knowledge Decays.” Substack.

Victorino Group ajuda organizações de engenharia a construir infraestrutura de verificação que transforma soluções informais dos desenvolvedores em governança sistemática. A lacuna de confiança é real. O imposto é mensurável: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa