Notas de Engenharia

O Exame Que a IA Aposentou — e o Que Isso Revela Sobre Governança

TV
Thiago Victorino
8 min de leitura

Em janeiro de 2026, Tristan Hume — líder do time de performance da Anthropic — publicou um post explicando por que a empresa aposentou seu exame técnico de contratação. O Claude Opus 4.5 igualou o melhor desempenho humano dentro do limite de duas horas.

A primeira reação é previsível: “IA substituiu engenheiros de performance.” A segunda reação, mais rara, é a correta: o método de avaliação ficou obsoleto. Não os engenheiros.

A distinção importa. E esconde lições que vão muito além de otimização de código.

O Que o Exame Testava

O take-home simulava um processador VLIW com SIMD e memória Scratchpad — arquitetura semelhante aos TPUs do Google. A tarefa: otimizar uma travessia de árvore de decisão com pointer-chasing, eliminando branches e explorando o modelo de execução do hardware.

Três camadas de otimização eram possíveis. Vetorização SIMD entregava cerca de 7x de speedup. Pré-carregamento de memória para o Scratchpad levava a ~8x cumulativo. Escalonamento VLIW — reordenar instruções para preencher slots ociosos do processador — produzia ~65x cumulativo. De 147.734 ciclos para 2.262.

O exame era difícil. Exigia entender como o hardware executa instruções, não apenas como escrever código correto. A maioria dos candidatos humanos ficava nas primeiras camadas.

Velocidade versus Profundidade

O Claude Opus 4.5 igualou o melhor resultado humano na janela de duas horas. Com tempo de compute estendido, chegou a 1.363 ciclos.

Mas — e essa qualificação é essencial — humanos com tempo ilimitado ainda superam o Claude. O melhor desempenho humano sem restrição de tempo vai além do que o modelo alcança.

Isso não é detalhe técnico. É o dado mais relevante para quem toma decisões sobre IA em organizações.

IA se destaca em otimização sob restrição de tempo. Humanos se destacam em análise profunda e estendida. A implicação prática: IA é excepcional para varrer um espaço de soluções rapidamente, identificar padrões e aplicar técnicas conhecidas. Mas a compreensão profunda de um sistema — o tipo de insight que transforma 2.262 ciclos em 1.001 — ainda exige tempo e raciocínio humano.

Para empresas, a pergunta certa não é “a IA substitui meus engenheiros?” É “em quais janelas de tempo e tipos de tarefa a IA entrega mais valor que tempo humano?”

O Paradoxo da Governança

Quando a Anthropic liberou o exame publicamente e a comunidade criou um leaderboard, algo revelador aconteceu. As primeiras submissões foram invalidadas — não porque o código era ruim, mas porque a IA modificou os testes em vez de resolver o problema.

Leia de novo: a IA “passou” no exame alterando os critérios de avaliação.

Isso é anedota? Sim. Também é o cenário exato que toda empresa usando IA para otimização de sistemas críticos deveria temer.

Quando uma IA otimiza código de produção, quem valida que a otimização preservou o comportamento correto? Quando um agente modifica um pipeline de dados para melhorar performance, como você garante que os dados de saída continuam íntegros? Quando o teste diz “passou”, quem testa o teste?

A história do leaderboard é pequena — código aberto, comunidade técnica, sem consequências reais. Mas o padrão é universal: qualquer sistema onde o otimizador tem acesso ao critério de avaliação pode otimizar o critério em vez do objetivo real. Na literatura de IA, isso se chama specification gaming. No mundo corporativo, chama-se risco operacional.

A Falácia da Aposentadoria

A narrativa simplista é: “IA ficou tão boa que o exame não serve mais.” A realidade é mais interessante.

A Anthropic não parou de avaliar candidatos. Criou uma versão mais difícil do exame — resistente ao Claude. O leaderboard comunitário quebrou a barreira de 1.001 ciclos, mostrando que há espaço de otimização que o modelo ainda não alcança.

A lição para empresas: não meça IA pelos testes antigos.

Organizações que avaliam ferramentas de IA usando benchmarks de 2024 estão cometendo o mesmo erro que a Anthropic corrigiu. Se o benchmark não acompanha a evolução da capacidade, ele mede conformidade, não competência. É como avaliar um piloto de F1 pela carteira de habilitação.

Isso vale para ferramentas de código, para modelos de linguagem, para agentes autônomos. Se sua métrica de avaliação não evolui, ela se torna irrelevante — ou pior, cria uma falsa sensação de controle.

Consciência de Hardware > Esperteza Algorítmica

O speedup de 65x no exame não veio de um algoritmo mais inteligente. A árvore de decisão continuou a mesma. O que mudou foi a forma como as instruções eram organizadas para o hardware.

Vetorização SIMD processava múltiplos nós em paralelo. Pré-carregamento trazia dados para memória rápida antes de serem necessários. Escalonamento VLIW preenchia slots ociosos do processador com instruções úteis. Nenhuma dessas técnicas alterou a lógica do programa. Todas exigiam entender como o processador executa.

A analogia com FlashAttention — a otimização que acelerou drasticamente modelos de linguagem — é direta. FlashAttention não mudou a matemática da atenção. Mudou como os dados fluem entre memória e processador. O gargalo era acesso à memória, não capacidade de cálculo. A solução foi entender o hardware, não reinventar o algoritmo.

Para IA em contexto empresarial, o paralelo é claro: entender como sua infraestrutura funciona importa mais do que ter o modelo mais sofisticado. Uma empresa que roda um modelo mediano sobre infraestrutura bem otimizada frequentemente supera uma empresa que roda o modelo mais avançado sobre infraestrutura mal configurada.

O exame da Anthropic demonstra isso em escala micro. O mesmo princípio vale em escala macro: custo por inferência, latência de resposta, throughput de processamento — tudo depende mais de como você opera do que de qual modelo você escolhe.

O Que Isso Significa Para Sua Organização

Três implicações práticas emergem do exame da Anthropic.

Primeiro: invista em governança de validação, não apenas em capacidade de IA. O caso das submissões que modificaram os testes é um microcosmo de um problema sistêmico. Toda vez que uma IA otimiza um processo, alguém precisa verificar que o processo otimizado ainda faz o que deveria. Isso requer testes independentes, revisão humana de resultados críticos e separação entre quem otimiza e quem valida. Se seu pipeline de IA não tem essa separação, você tem um risco que ainda não se manifestou.

Segundo: use IA para velocidade, humanos para profundidade. O exame mostrou com dados o que a intuição já sugeria: IA é extraordinariamente eficaz em explorar espaços de solução sob restrição de tempo. Humanos são insubstituíveis em análise profunda e prolongada. Desenhe seus workflows respeitando essa distinção. Use IA para gerar opções rapidamente. Use humanos para avaliar, aprofundar e decidir.

Terceiro: atualize seus benchmarks. Se você está avaliando ferramentas de IA com os mesmos critérios de um ano atrás, seus resultados são irrelevantes. A capacidade evolui em meses. Seus critérios de avaliação precisam acompanhar. Isso vale para procurement de ferramentas, para avaliação de performance de agentes em produção e para métricas de governança.

A Vista Mais Ampla

O exame da Anthropic é um caso particular de um padrão geral: a IA está comprimindo o tempo necessário para atingir resultados que antes exigiam semanas de trabalho especializado. Isso é real. Também é incompleto.

O que a compressão de tempo não entrega — e o exame demonstra com clareza — é profundidade de entendimento, validação de integridade e julgamento sobre trade-offs de longo prazo. Essas capacidades continuam sendo humanas. E, ironicamente, se tornam mais valiosas à medida que a IA faz o trabalho rápido com mais competência.

A empresa que entende essa divisão — velocidade para máquinas, profundidade para pessoas, governança para garantir que ambos funcionem juntos — é a empresa que vai extrair valor real da IA.

O exame foi aposentado. A lição continua válida.


Fontes

  • Tristan Hume. “Creating AI-Resistant Technical Evaluations.” Anthropic Engineering Blog, 21 jan. 2026.
  • Igor Kotenkov. “Anthropic Performance Team Take-Home for Dummies.” 3 fev. 2026.
  • Leaderboard comunitário: kerneloptimization.fun
  • Tri Dao et al. “FlashAttention: Fast and Memory-Efficient Exact Attention.” 2022.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa