Waymo e os 82%: quando 'melhor que humanos' precisa de asterisco

TV
Thiago Victorino
8 min de leitura
Waymo e os 82%: quando 'melhor que humanos' precisa de asterisco
Ouvir este artigo

82% menos acidentes com ciclistas e motociclistas. 92% menos acidentes graves. 96% menos acidentes em cruzamentos. Os números da Waymo, publicados na Traffic Injury Prevention em maio de 2025, são reais. Passaram por revisão de pares. Cobrem 56,7 milhões de milhas.

Se a história terminasse aqui, o caso estaria encerrado. Robotáxis são mais seguros que motoristas humanos. Ponto.

A história não termina aqui.

O que os números dizem

Vamos dar crédito onde é devido. O estudo é metodologicamente sólido dentro do seu escopo. 56,7 milhões de milhas não é amostra trivial. E os resultados são consistentes com dados da Swiss Re, que analisou 25,3 milhões de milhas e encontrou 88% menos sinistros de danos materiais e 92% menos sinistros de danos corporais.

Dois estudos independentes (a Swiss Re é seguradora da Waymo, então “independente” merece aspas) apontando na mesma direção. Isso é relevante.

Mas existe um paradoxo nos dados que raramente aparece nas manchetes.

O paradoxo de frequência

Veículos autônomos da Waymo se envolvem em 9,1 acidentes por milhão de milhas. Motoristas humanos, em 4,1.

Leia de novo. Os robotáxis batem mais. Não menos.

O que acontece é que a gravidade cai drasticamente. Quando um veículo da Waymo se envolve em um acidente, as chances de lesão séria são muito menores. A explicação faz sentido: o veículo não está bêbado, não está distraído, não está tentando furar um sinal amarelo. Quando o impacto acontece, geralmente é em baixa velocidade.

“Mais seguro” depende da métrica. Se medimos por frequência de colisão, humanos vencem. Se medimos por gravidade de resultado, a Waymo vence por margem larga. Ambas as afirmações são verdadeiras. Nenhuma aparece completa nas manchetes.

A impossibilidade estatística

Em 2016, a RAND Corporation calculou quantas milhas um veículo autônomo precisaria percorrer para demonstrar confiabilidade estatística: centenas de bilhões. Não milhões. Bilhões.

A Waymo percorreu 170,7 milhões de milhas. Parece muito. Representa 0,005% do total anual rodado nos Estados Unidos (3,279 trilhões de milhas, segundo a FHWA). Um executivo da própria Waymo admitiu que a quilometragem é insuficiente para conclusões estatísticas sobre acidentes fatais.

Isso não invalida os dados. Significa que estamos olhando para resultados promissores dentro de um intervalo de confiança mais largo do que as manchetes sugerem.

As condições que ninguém menciona

Aqui está o ponto que transforma uma boa notícia em uma história mais complicada.

A Waymo opera exclusivamente em ruas urbanas com limite de velocidade de até 56 km/h. Apenas em cidades previamente mapeadas em detalhe. Apenas em condições climáticas favoráveis.

A base de comparação humana inclui tudo. Rodovias a 120 km/h. Tempestades. Estradas rurais sem sinalização. Motoristas com sono às três da manhã. Adolescentes dirigindo pela primeira vez.

Comparar os 82% sem mencionar essa assimetria é como dizer que um nadador olímpico é “mais rápido que a média dos brasileiros” sem mencionar que a média inclui bebês e idosos.

Os robotáxis são impressionantes no domínio onde operam. Mas esse domínio é restrito. E a comparação é com o universo inteiro da direção humana, incluindo cenários que nenhum robotáxi jamais enfrentou.

Quando a teoria encontra a calçada

Em janeiro de 2026, o NTSB abriu investigação sobre mais de 30 violações de regras de ônibus escolar por veículos da Waymo em Austin e Atlanta. Em Santa Monica, uma criança foi atropelada. A investigação revelou que um operador remoto confirmou incorretamente que não havia sinais ativos de ônibus escolar.

Esse é o tipo de falha que não aparece em estatísticas agregadas de segurança. Não foi um problema de algoritmo de direção. Foi um problema de governança: quem supervisiona, como supervisiona, quais protocolos existem para cenários ambíguos.

Como discutimos em The Verification Tax, o custo de verificar o que a IA produz é real e inevitável. No caso da Waymo, a verificação precisa cobrir não apenas o comportamento do veículo, mas toda a cadeia de decisão. Incluindo humanos.

O padrão que se repete

A afirmação “IA é melhor que humanos” aparece em outros contextos. Código gerado por IA com “menos bugs que código humano”. Diagnósticos médicos por IA “mais precisos que médicos”. Sempre com asterisco implícito.

O asterisco é: em condições específicas, para tarefas específicas, medido por métricas específicas.

Não é desonestidade. É a natureza de sistemas especializados. Um modelo de IA treinado para detectar melanoma em imagens dermatológicas pode superar dermatologistas nessa tarefa específica. Isso não significa que ele é “melhor que médicos”. Significa que é excelente em uma fatia estreita do que um médico faz.

Com veículos autônomos, a lógica é idêntica. A Waymo é impressionante em ruas urbanas de baixa velocidade em cidades mapeadas. Generalizar para “mais segura que humanos” é extrapolar além do que os dados sustentam.

Como exploramos em Domain Expertise Still Wanted, a competência da IA é sempre contextual. O domínio importa. As condições de contorno importam. Quem não entende os limites do domínio não consegue avaliar as afirmações.

A questão de governança

O que conecta os 82% da Waymo com o acúmulo de dívida de verificação em software é o mesmo padrão: a tecnologia avança mais rápido que a capacidade de verificá-la.

Os dados da Waymo são bons. O problema não são os dados. É a infraestrutura ao redor dos dados. Quem audita? Com que frequência? Quais cenários estão cobertos e quais não estão? Quando o operador remoto errou em Santa Monica, qual protocolo falhou?

Essas perguntas não têm respostas públicas satisfatórias. E na ausência de respostas, ficamos com manchetes de 82% que criam expectativas desproporcionais à evidência.

Para quem toma decisões

Se você lidera uma organização que está adotando IA (qualquer IA, não apenas veículos autônomos), três perguntas merecem atenção:

Qual é o domínio real de operação? Quando um fornecedor diz que seu sistema é “melhor que humanos”, pergunte: em quais condições? A resposta define o limite de confiança.

Quem verifica o verificador? A Swiss Re analisou os dados da Waymo, mas também é parceira comercial da Waymo. Revisão de pares é necessária, porém insuficiente quando os incentivos estão alinhados.

Qual é o protocolo de falha? Quando o sistema erra (e sistemas erram), existe um caminho claro de investigação, correção e prevenção? O incidente do ônibus escolar sugere que esse caminho ainda está em construção.

Como apontamos em Growth Is Now a Trust Problem, escalar antes de resolver a governança cria fragilidades que o sucesso amplifica em vez de corrigir.

A manchete que deveríamos ler

Não é “Robotáxis são 82% mais seguros que humanos.”

É: “Em condições urbanas controladas, com limites de velocidade baixos e mapeamento prévio detalhado, veículos da Waymo apresentam resultados de segurança significativamente melhores que a média de todos os motoristas humanos em todas as condições. A amostra cobre 0,005% da quilometragem anual americana. Incidentes recentes de governança revelam pontos cegos operacionais que os dados agregados não capturam.”

Menos cabe em um título. Mas é o que os dados realmente dizem.


Fontes

  • Traffic Injury Prevention. “Comparison of Waymo Rider-Only crash rates by crash type to human benchmarks at 56.7 million miles.” Maio 2025.
  • RAND Corporation. “Driving to Safety: How Many Miles of Driving Would It Take to Demonstrate Autonomous Vehicle Reliability?” 2016.
  • Swiss Re / Waymo. “Safety study: 25.3 million miles analysis.” Dezembro 2024.
  • NTSB. “Investigation HWY26FH007: Waymo school bus incidents.” Janeiro 2026.
  • FHWA. “Vehicle Miles Traveled 2024.” 2025.

Victorino Group ajuda organizações a construir frameworks de verificação para sistemas de IA no mundo físico e digital: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa