O Acerto de Contas do Piloto Automático: Quando a IA Vende o Trabalho, Quem Governa o Resultado?

TV
Thiago Victorino
12 min de leitura
O Acerto de Contas do Piloto Automático: Quando a IA Vende o Trabalho, Quem Governa o Resultado?
Ouvir este artigo

A Sequoia Capital publicou uma tese em março de 2026 que deveria tirar o sono de qualquer profissional de governança. Julien Bek argumentou que a próxima empresa de um trilhão de dólares será “uma empresa de software disfarçada de prestadora de serviços”. Não vendendo ferramentas. Vendendo trabalho pronto.

A lógica é direta. Para cada dólar gasto em ferramentas de software, empresas gastam seis dólares em serviços. Só consultoria de gestão representa um mercado de $300 a $400 bilhões. Recrutamento, $200 bilhões. Cadeia de suprimentos, $200 bilhões. Corretagem de seguros, $140 a $200 bilhões. O mercado de ferramentas é coadjuvante perto do mercado de trabalho executado.

A sacada central de Bek: “Se você vende a ferramenta, está numa corrida contra o modelo. Mas se vende o trabalho, cada melhoria no modelo torna seu serviço mais rápido.” Empresas de ferramentas competem por funcionalidades. Empresas de trabalho surfam a curva de melhoria dos modelos sem custo adicional.

Esse é o motor econômico por trás da transição de copiloto para piloto automático. E cria um problema de governança que ninguém na tese de investimento se preocupou em endereçar.

A força de trabalho de $15 mil

Três semanas depois do ensaio da Sequoia, o Wall Street Journal publicou o perfil da JustPaid, uma empresa de nove pessoas rodando sete agentes de IA sem parar. Os agentes construíram dez funcionalidades relevantes no primeiro mês. Equivalente humano: um mês por funcionalidade, no mínimo. Custo mensal: $10 mil a $15 mil, abaixo dos $4 mil por semana do início.

Vinay Pinnaka, CTO da JustPaid, foi direto sobre a trajetória: “Mesmo gastando o mesmo valor com um engenheiro do Vale do Silício ou com IA, eu ainda escolheria a IA porque ela opera em outra escala.” Depois, a admissão mais silenciosa: “Quando a IA chegar ao ponto de lidar com empatia humana, vou poder dizer: posso substituir todo mundo por IA.”

Nove funcionários. Sete agentes. Dez funcionalidades por mês. A conta fecha.

Mas no mesmo artigo, Tatyana Mamut, CEO da Wayfound, ofereceu o contraponto: “OpenClaw e outros agentes deixados por conta própria para tomar decisões precisam de supervisão o tempo todo.” O Journal relatou que, sem supervisão, agentes “podem adulterar ou apagar arquivos valiosos”.

Eis a tensão que a tese da Sequoia ignora. A economia empurra para autonomia total. A realidade operacional exige supervisão constante. Essas duas forças puxam em direções opostas, e a distância entre elas cresce a cada trimestre.

De velocidade a deriva

Como exploramos em O Paradoxo das Operações de Agentes, a tensão entre velocidade dos agentes e controle operacional é estrutural, não temporária. Aquela análise focava em operações. O que acontece quando estendemos a mesma dinâmica ao produto em si?

Josh Ip, da Ranger, publicou um ensaio em março de 2026 que deu nome a esse fenômeno: product drift (deriva de produto). Seus exemplos são específicos e desconfortáveis.

Um componente interno foi acidentalmente publicado em um site externo. Pedidos de funcionalidades para dashboards continuavam adicionando botões a uma interface já saturada. Feedback sobre funcionalidades que antes gerava debate no Slack passou a ser ignorado. O agente construiu a funcionalidade. A funcionalidade foi para produção. Ninguém discutiu se ela deveria existir.

A observação de Ip vai ao ponto: “Agentes geram funcionalidades mais rápido do que você consegue ler.” O produto não avança. Ele deriva.

É assim que a redução de atrito se manifesta em escala. Quando construir uma funcionalidade leva um mês, o time debate se vale a pena. Quando leva um dia, o debate desaparece. Não porque o time decidiu que a funcionalidade era válida. Porque o custo de construir caiu abaixo do custo de discutir.

O resultado não é velocidade. É volume sem direção. “Os times frequentemente nem estão mais rápidos”, escreveu Ip. “Estão apenas produzindo mais.”

A analogia subprime

Um texto intitulado “The Subprime Technical Debt Crisis” apareceu no final de março de 2026, e sua analogia central merece exame sério.

A crise do subprime assumiu que os preços dos imóveis subiriam indefinidamente. Credores assumiram riscos que não entendiam porque acreditavam que o ativo subjacente sempre se valorizaria. Quando os preços pararam de subir, o risco acumulado ficou visível de uma vez.

O autor argumenta que código gerado por IA cria a mesma dinâmica. Times acumulam dívida técnica deliberadamente porque assumem que melhorias futuras nos modelos tornarão a correção mais barata. Por que refatorar hoje se o GPT-6 resolve em seis meses? A dívida é real. A premissa de que a IA futura vai limpá-la é especulativa.

A matemática é sedutora. Se um agente de IA produz 40 mil linhas de código por dia, e um modelo futuro pode refatorar dez vezes mais rápido que o modelo atual, então a decisão racional é entregar rápido e corrigir depois. Mas como o autor aponta: “Você usou a coisa mais próxima de AGI que a humanidade já construiu para produzir uma pilha de código tão complexa que nem o modelo mais recente consegue raciocinar sobre ela.”

Dívida técnica sempre existiu. O que muda com código gerado por IA é a velocidade de acúmulo. Um desenvolvedor humano escrevendo 200 linhas por dia acumula dívida devagar o suficiente para que a revisão de código pegue o pior. Um agente escrevendo milhares de linhas por dia sobrecarrega os processos tradicionais de revisão. A dívida se compõe na velocidade da máquina enquanto os mecanismos de detecção operam na velocidade humana.

A transferência de responsabilidade que ninguém discute

A tese da Sequoia contém uma observação que parece acessória, mas é a frase mais consequente do texto. Bek nota que copilotos mantêm humanos responsáveis, enquanto pilotos automáticos transferem a responsabilidade para o sistema de IA.

Pense no que isso significa para o mercado de serviços que a Sequoia descreve.

Uma consultoria de gestão que usa copilotos de IA para ajudar consultores a escrever recomendações ainda tem consultores revisando essas recomendações. O humano está no circuito. A cadeia de responsabilidade é clara: consultor, firma, cliente.

Uma empresa de software “disfarçada de prestadora de serviços” que implanta pilotos automáticos para fazer o trabalho de consultoria tem um perfil de responsabilidade completamente diferente. Quando o piloto automático produz uma recomendação de cadeia de suprimentos que custa ao cliente 3% do gasto em compras (a média de vazamento contratual que a Sequoia cita), quem é responsável? A empresa de software que implantou o agente? O provedor do modelo cujas saídas o agente utilizou? O cliente que escolheu um serviço autônomo em vez de um humano?

Essa pergunta não é teórica. É a consequência inevitável da tese econômica que a Sequoia promove. O mercado de serviços é seis vezes maior que o de ferramentas justamente porque serviços carregam responsabilidade. Uma ferramenta que dá uma resposta errada é frustrante. Um serviço que executa uma resposta errada em seu nome é um evento de responsabilidade civil.

O arcabouço jurídico atual não tem resposta para isso. O direito do consumidor foi construído para bens físicos. A responsabilidade profissional foi construída para profissionais humanos. Um piloto automático de IA que entrega “serviços” não se encaixa em nenhuma categoria com clareza. E as empresas correndo para capturar a oportunidade trilionária não têm incentivo para desacelerar e resolver a questão.

A camada de governança que falta

Quatro sinais de março de 2026 apontam na mesma direção.

A Sequoia mapeia uma oportunidade de mercado acima de $1 trilhão em serviços autônomos de IA. A JustPaid demonstra que uma empresa de nove pessoas pode rodar uma força de trabalho de agentes por $15 mil ao mês. A Ranger documenta como a velocidade dos agentes degrada a coerência do produto. E a tese da dívida subprime mostra como a premissa de melhoria futura da IA incentiva imprudência no presente.

Cada sinal, isolado, é administrável. Uma tese de investimento é só uma tese. Uma empresa de nove pessoas é um experimento. Deriva de produto é um problema de design. Dívida técnica é um problema de engenharia.

Juntos, descrevem um sistema com incentivos econômicos massivos para remover humanos do circuito, evidências emergentes de que remover humanos degrada a qualidade das entregas, e nenhum framework de governança para gerir a transição.

Os 340 mil contadores perdidos em cinco anos que a Sequoia cita não estão sendo substituídos por outros contadores. Os 70 mil códigos médicos ICD-10 que a Sequoia aponta como oportunidade para IA não serão revisados por outros codificadores médicos. O trabalho está sendo transferido de humanos com responsabilidade profissional para sistemas sem nenhuma.

O que a governança da era do piloto automático exige

A era do copiloto era sobre aumento de capacidade. Governança para copilotos significa revisar saídas, validar sugestões, manter o julgamento humano no circuito. A maioria das organizações nem isso construiu.

A era do piloto automático é sobre delegação. Governança para pilotos automáticos exige algo fundamentalmente diferente: sistemas que avaliam trabalho concluído após o fato, frameworks de responsabilidade para saídas autônomas, e disjuntores que detectam deriva antes que ela se acumule.

Três capacidades se tornam inegociáveis.

Trilhas de auditoria de saídas. Quando um piloto automático conclui trabalho, cada decisão que tomou precisa ser reconstituível. Não o prompt e a resposta. A cadeia completa de decisões: que informação acessou, que alternativas considerou, que trade-offs fez. A experiência da JustPaid mostra que, sem isso, agentes “adulteram ou apagam arquivos valiosos” e ninguém sabe por quê.

Detecção de deriva. A deriva de produto que Ip descreve não é exclusiva da gestão de produtos. Se aplica a qualquer domínio onde a velocidade da IA excede a capacidade humana de revisão. Agentes autônomos de contabilidade vão derivar das melhores práticas. Agentes autônomos de cadeia de suprimentos vão derivar das políticas de compras. A detecção exige comparação contínua entre a saída dos agentes e os padrões estabelecidos, na mesma velocidade em que os agentes operam.

Atribuição de responsabilidade antes da implantação. O padrão atual é: implantar o piloto automático, capturar o valor econômico, definir responsabilidade quando algo der errado. Esse é o padrão subprime. O momento de definir quem responde pelas saídas autônomas é antes do agente entrar em operação, não depois do primeiro incidente.

A Sequoia provavelmente está certa de que a próxima empresa trilionária vai vender trabalho, não ferramentas. A economia é convincente demais para o mercado resistir. Mas as organizações comprando esse trabalho precisam entender o que estão adquirindo: entregas sem responsabilização, em escala, de sistemas que derivam.

A questão não é se a era do piloto automático está chegando. É se a governança vai chegar antes do primeiro grande evento de responsabilidade civil, ou depois.


Fontes

A Victorino ajuda organizações a construir frameworks de governança para a transição de copiloto para piloto automático: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa