- Início
- Thinking...
- Não Demita Sua Equipe. Governe Sua IA.
Não Demita Sua Equipe. Governe Sua IA.
Na semana passada, Charlie Hills publicou um artigo com o título “I fired my team and hired Claude Opus 4.6”. É clickbait, ele admite logo no primeiro parágrafo. O conteúdo real é um guia prático de seis workflows no Claude Cowork — criação de conteúdo, preparação para vendas, revisão de contratos, plugins customizados, inteligência comercial e diagramação visual.
O timing não é acidental. Na mesma semana, o lançamento do Cowork e do Opus 4.6 eliminou US$ 285 bilhões em valor de mercado global. A imprensa cunhou o termo “SaaSpocalypse”. O Goldman Sachs Software Index (IGV) caiu 30% em relação aos picos de outubro de 2025. Thomson Reuters, LegalZoom — empresas que vendem exatamente o tipo de trabalho que agentes podem automatizar — foram as mais atingidas.
O medo é compreensível. Mas medo não é estratégia.
O Que Funciona no Artigo
Antes de discordar, é justo reconhecer o que o artigo de Hills acerta.
Documentar antes de automatizar. Hills insiste que você deve documentar seus processos existentes antes de entregá-los ao Claude. Isso é fundamental. Automação sem documentação é automatizar o caos — e agora em velocidade de máquina.
Usar exemplos reais, não templates. O Claude trabalha melhor quando recebe amostras do seu trabalho real, não modelos genéricos de internet. O modelo aprende seu tom, sua estrutura, suas preferências a partir de artefatos concretos. Essa é a diferença entre um assistente genérico e um que produz algo utilizável.
Skills como instruções persistentes. A funcionalidade de Skills do Cowork permite criar conjuntos de instruções reutilizáveis. Em vez de repetir contexto a cada tarefa, você codifica seus padrões uma vez. É o equivalente a treinar um processo, não uma pessoa.
Memória habilitada. Permite que o Claude mantenha contexto entre sessões. Sem isso, cada interação começa do zero — como contratar alguém que esquece tudo toda manhã.
São dicas sólidas. Funcionam. Se o artigo parasse aqui, seria um guia útil.
Mas o artigo não para aqui.
O Capítulo que Falta
O artigo descreve seis workflows corporativos sendo delegados a um agente de IA. Revisão de contratos. Análise de inteligência comercial. Criação de conteúdo para clientes. Em nenhum momento discute segurança.
Isso é uma omissão grave. Porque o Claude Cowork foi lançado com vulnerabilidades conhecidas — e documentadas.
A tríade letal. Pesquisadores de segurança identificaram que o Cowork combina três características que, juntas, criam risco sistêmico: acesso a dados privados, exposição a conteúdo não confiável e capacidade de comunicação externa. Quando um agente tem as três, um ataque de prompt injection pode exfiltrar dados sensíveis para terceiros.
Não é hipotético. Já foi demonstrado. O Cowork foi lançado com uma vulnerabilidade conhecida de exfiltração de arquivos — um ataque de prompt injection pode induzir o Claude a fazer upload de arquivos para a conta de um atacante.
Jailbreak em 42 segundos. Dados de 2026 indicam que 20% das tentativas de jailbreak em modelos de linguagem são bem-sucedidas dentro de 42 segundos. Dos ataques que funcionam, 90% resultam em vazamento de dados. Ataques de camuflagem — instruções maliciosas escondidas em conteúdo aparentemente inofensivo — alcançam taxa de sucesso de 65% em oito modelos diferentes.
Responsabilidade é sua. A Anthropic é explícita nos termos de uso: usuários “permanecem responsáveis por todas as ações tomadas pelo Claude”. Se o agente vaza um contrato confidencial durante uma revisão automatizada, a responsabilidade é de quem delegou a tarefa, não de quem construiu o agente.
A própria Anthropic recomenda: evite dar acesso a documentos sensíveis como registros financeiros e credenciais. Monitore padrões inesperados — o Claude acessando arquivos não mencionados, expandindo o escopo da tarefa. Use apenas extensões MCP verificadas.
Agora releia o artigo de Hills. Revisão de contratos. Análise financeira de prospects. Preparação de propostas comerciais. Exatamente os workflows que a Anthropic recomenda cautela ao automatizar.
A Realidade para Empresas Brasileiras
Para os clientes que atendemos — empresas de médio porte, frequentemente em setores regulados — a ideia de “demitir a equipe e contratar Claude” não é provocativa. É irresponsável.
Não porque a ferramenta não funcione. Funciona. Já demonstramos isso em artigos anteriores sobre o Cowork. A questão é o que acontece quando a ferramenta funciona sem controle.
Uma empresa de serviços financeiros que automatiza revisão de contratos sem trilha de auditoria está criando risco regulatório. Um escritório de advocacia que delega análise de documentos sensíveis a um agente com acesso à web está expondo dados de clientes a vetores de ataque conhecidos. Uma empresa de saúde que processa dados de pacientes via agentes sem segregação de acesso está violando a LGPD antes de entregar o primeiro resultado.
O problema não é a automação. É a automação sem governança.
O Framework: Adoção com Governança
A dicotomia “adotar IA” versus “proteger a empresa” é falsa. Governança não desacelera a adoção — é a infraestrutura que torna a adoção sustentável.
Camada 1: Workflows de Baixo Risco
Comece onde o custo de erro é baixo.
- Criação de conteúdo: rascunhos de posts, resumos de reuniões, estruturação de apresentações. Se o agente erra, você edita. Nenhum dado sensível em jogo.
- Sumarização e pesquisa: consolidação de informações públicas, resumos de artigos, análise de tendências. A entrada e a saída são informações abertas.
- Diagramação e visualização: um dos workflows de Hills — usar Claude para gerar diagramas — é genuinamente útil e de baixo risco.
Esses workflows validam a ferramenta, treinam a equipe e geram dados sobre confiabilidade antes de escalar.
Camada 2: Governança como Infraestrutura
Antes de escalar para workflows de maior risco, implemente:
- Trilhas de auditoria: registre o que o agente fez, quando, com quais dados. Se você não pode auditar, não pode confiar.
- Escopo de permissões: o agente acessa apenas os arquivos necessários para a tarefa específica. Nunca o disco inteiro. Nunca a rede inteira.
- Limites de dados: dados sensíveis — financeiros, pessoais, regulados — ficam fora do alcance do agente até que controles específicos estejam implementados.
- Revisão humana em pontos críticos: o agente pode rascunhar o contrato. Um humano assina. O agente pode preparar a análise. Um humano decide.
Camada 3: Workflows de Alto Risco — Com Controles
Só depois das camadas anteriores, considere:
- Revisão de contratos: com trilha de auditoria completa, segregação de dados confidenciais e revisão humana obrigatória antes de qualquer ação.
- Análise financeira: com dados anonimizados quando possível, acesso restrito a fontes verificadas e validação humana de conclusões.
- Inteligência comercial: com fontes documentadas, verificação cruzada automatizada e proibição de uso de dados internos de clientes sem consentimento.
A progressão é simples: prove que a ferramenta funciona em contexto seguro antes de expô-la a contexto sensível.
Humanos no Loop — Onde Importa
A expressão “human in the loop” virou clichê. Precisa de precisão.
Nem toda tarefa precisa de aprovação humana. Se o Claude gera um rascunho de post para LinkedIn, a revisão humana é boa prática, não requisito de segurança. Se o Claude envia um email para um cliente a partir de dados confidenciais, a revisão humana é obrigatória.
O critério é irreversibilidade. Ações reversíveis — rascunhos, análises internas, organizações de arquivo — podem ser delegadas com supervisão periódica. Ações irreversíveis — envios, publicações, transações, compartilhamentos externos — exigem aprovação humana explícita.
Isso não é burocracia. É a mesma lógica que faz com que um analista júnior prepare relatórios, mas não assine contratos.
O Que o SaaSpocalypse Realmente Significa
Os US$ 285 bilhões em valor de mercado que evaporaram não voltam. Parte era especulação. Parte era avaliação legítima de empresas cujo modelo de negócio agentes podem substituir.
Mas a conclusão correta não é “demita sua equipe”. É: empresas que dependem de trabalho que agentes podem executar precisam se reposicionar. E equipes que sabem operar agentes com governança são mais valiosas, não menos.
O artigo de Hills trata a questão como binária: ou você tem uma equipe humana, ou você tem Claude. A realidade é mais sutil. Equipes amplificadas por agentes governados produzem mais do que equipes humanas sozinhas ou agentes sem supervisão.
Quem não acredita pode revisitar a análise de Kent Beck sobre o Paradoxo de Jevons: quando uma tecnologia reduz o custo de uma atividade, a demanda por essa atividade tende a crescer, não a diminuir. Programação ficou mais barata com IA. A demanda por software explodiu. O mesmo vale para trabalho de conhecimento em geral.
A Decisão Real
As empresas que vão se destacar nos próximos anos não serão as que demitiram suas equipes mais rápido.
Serão as que construíram a infraestrutura de governança que permite adotar IA com velocidade e confiança. Que trataram segurança como pré-requisito, não como obstáculo. Que documentaram processos antes de automatizá-los. Que mantiveram humanos onde humanos são insubstituíveis — nas decisões irreversíveis — e delegaram o resto a agentes bem governados.
O Claude Cowork é uma ferramenta poderosa. Os workflows de Hills são úteis. O potencial é real.
Mas potencial sem governança é risco. E risco sem gestão é negligência.
Governe sua IA. Depois, escale.
Fontes
- Charlie Hills. “I fired my team and hired Claude Opus 4.6.” MarTech AI Substack, fevereiro 2026.
- Dados de mercado: Goldman Sachs Software Index (IGV), CNBC, FinancialContent. Fevereiro 2026.
- Pesquisas de segurança: GovInfoSecurity, The Register, Security Boulevard, ByteIota. Vulnerabilidades do Claude Cowork e estatísticas de jailbreak, 2026.
- Anthropic. Recomendações de segurança para Claude Cowork e termos de uso. 2026.
- Kent Beck. “Programming Deflation.” Setembro 2025.
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa