- Início
- The Thinking Wire
- 25.000 Agentes, 100.000 Advogados, Zero Padrões de Governança
25.000 Agentes, 100.000 Advogados, Zero Padrões de Governança
Harvey acaba de levantar $200 milhões em sua Série C, co-liderada por GIC e Sequoia. O valuation: $11 bilhões. O financiamento total ultrapassa $1 bilhão. São 25.000 agentes customizados implantados em 1.300 organizações jurídicas, em mais de 60 países. Cem mil advogados usam a plataforma. A maioria dos escritórios do AmLaw 100 está na base de clientes.
Esses números não são projeção. São operação. E é exatamente isso que torna a ausência de governança tão preocupante.
O Que Harvey Prova
A primeira coisa que Harvey prova é que IA vertical em serviços profissionais não é piloto. Como analisamos quando o mercado começou a precificar essa mudança, a diferença estrutural da IA vertical é competir por orçamentos de pessoal, não de TI. Harvey é o caso concreto. Advogados não usam a plataforma como ferramenta auxiliar. O CEO da empresa, Winston Weinberg, disse com clareza: “AI isn’t just assisting lawyers. It’s becoming the system through which legal work gets done.”
A segunda coisa que Harvey prova é que agentes de IA verticais escalam rápido em indústrias reguladas. Sessenta países. Cem mil profissionais. Vinte e cinco mil agentes customizados. A velocidade de adoção lembra SaaS em 2012, com uma diferença fundamental: SaaS organizava informação. Agentes executam trabalho.
A terceira coisa que Harvey prova é que o mercado não está esperando governança para adotar. Escritórios de advocacia operam sob obrigações fiduciárias, sigilo profissional e regulação estrita. Mesmo assim, 25.000 agentes já estão em produção. A pressão competitiva supera a cautela regulatória.
A Pergunta Que Ninguém Responde
Um agente de IA que redige uma cláusula contratual está praticando advocacia? Se o agente analisa risco em uma due diligence e o advogado assina sem revisar cada detalhe, quem é responsável pelo erro? Se 25.000 agentes customizados produzem trabalho jurídico em 60 jurisdições diferentes, qual framework regulatório se aplica?
Essas perguntas não são teóricas. São operacionais. E nenhuma delas tem resposta clara hoje.
O problema se agrava com a escala. Um advogado usando IA como assistente de pesquisa mantém controle sobre o output. É ele quem lê, avalia e decide. Quando a IA vira “o sistema pelo qual trabalho jurídico é feito”, o advogado passa de autor a revisor. A diferença parece sutil. Não é.
Revisão humana de output de IA sofre do mesmo fenômeno que a Anthropic documentou no Claude Code: fadiga de aprovação. Quando 93% das sugestões estão corretas, o revisor para de revisar. Aceita por padrão. Os 7% que mereciam atenção passam despercebidos. Em código, isso gera bugs. Em trabalho jurídico, gera responsabilidade civil.
O Paradoxo da Indústria Regulada
Existe uma ironia estrutural na adoção de IA pelo setor jurídico. Advogados são os profissionais que redigem contratos de governança para outras indústrias. Definem cláusulas de responsabilidade. Estruturam compliance. E estão adotando agentes de IA em escala sem que a própria profissão tenha definido os padrões para isso.
Não é negligência. É incentivo econômico. O caso do Deutsche Bank em crédito corporativo ilustra o mesmo padrão: quando agentes de IA cortam 50% do tempo de análise, a pressão para adotar supera a cautela para governar. O mercado premia velocidade. Governança é custo até que algo dê errado.
Harvey amplifica essa dinâmica. Em um setor onde horas faturáveis são a unidade de receita, um agente que executa em minutos o que um associado junior faz em horas não é melhoria incremental. É reestruturação do modelo econômico. Os escritórios que não adotam perdem competitividade. Os que adotam assumem riscos que não sabem quantificar.
O Que Falta
O comunicado da Série C de Harvey menciona “responsible AI principles” e controles de segurança. O que não menciona é mais revelador.
Não há menção a frameworks de auditoria para output dos agentes. Não há detalhes sobre como conflitos de interesse são gerenciados quando agentes de diferentes clientes operam na mesma plataforma. Não há clareza sobre versionamento: quando um agente é atualizado, os pareceres anteriores produzidos pela versão antiga são reavaliados?
São lacunas que qualquer empresa de serviços profissionais deveria exigir antes de implantar 25.000 agentes em trabalho regulado. O fato de que o mercado não exige revela o estágio em que estamos. Adoção precede governança. Sempre precedeu. O custo dessa sequência é que aprendemos os riscos depois que eles se materializam.
O Que Organizações Precisam Fazer
Para empresas avaliando agentes de IA em trabalho regulado, Harvey oferece três lições práticas.
Separar adoção de delegação. Usar IA para pesquisa jurídica é diferente de usar IA para redigir documentos que geram responsabilidade. Cada nível de autonomia exige controles proporcionais. A maioria das organizações está pulando diretamente para delegação sem construir os controles intermediários.
Definir responsabilidade antes de implantar. Se um agente produz um parecer incorreto, quem responde? O advogado que assinou? O escritório? O fornecedor da plataforma? Essa cadeia precisa estar documentada antes da implantação, não depois do primeiro incidente.
Tratar governança como vantagem competitiva, não como freio. Os escritórios que construírem frameworks de governança para IA jurídica primeiro terão uma vantagem real. Clientes corporativos sofisticados vão exigir evidência de governança antes de confiar trabalho sensível a escritórios que usam agentes. Quem estiver pronto vai capturar essa demanda.
O Sinal nos Números
$11 bilhões de valuation para uma empresa que coloca agentes de IA dentro de trabalho jurídico regulado. Esse número diz duas coisas ao mesmo tempo.
Diz que o mercado acredita profundamente no valor de IA vertical em serviços profissionais. E diz que o mercado não está precificando risco de governança. As duas coisas podem ser verdade simultaneamente. Quando uma delas mudar, vai mudar rápido.
Fontes
- Harvey. “Harvey Raises at $11 Billion Valuation.” Março 2026.
Victorino Group ajuda empresas a governar agentes de IA em indústrias reguladas. contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa