Notas de Engenharia

O mercado escolheu governança: o que os dados de gastos da Ramp revelam sobre confiança de marca

TV
Thiago Victorino
7 min de leitura
O mercado escolheu governança: o que os dados de gastos da Ramp revelam sobre confiança de marca

A Ramp processa bilhões de dólares em transações corporativas por mês. Cada fatura, cada renovação de contrato, cada nova assinatura de SaaS aparece nos dados. Quando a empresa publica seu AI Index, o que estamos vendo não é opinião de analista nem pesquisa de intenção de compra. São decisões reais de gasto. Dinheiro saindo de contas bancárias.

Os números de fevereiro de 2026 contam uma história que merece atenção.

Os Números

A adoção empresarial de IA atingiu 47,6% das empresas na base da Ramp. Quase metade. Em si, isso já é significativo. Mas a composição é o que importa.

Anthropic está presente em 24,4% das empresas, crescendo 4,9 pontos percentuais por mês. É o maior ganho desde que a Ramp começou a rastrear o índice. Um ano atrás, esse número era 4%.

OpenAI registrou seu maior declínio mensal: 1,5 ponto percentual. Google fica em 4,7%. xAI, abaixo de 2%.

Quando a Ramp analisa confrontos diretos (empresas avaliando dois ou mais provedores simultaneamente), Anthropic vence aproximadamente 70% das vezes para novos compradores.

De 4% para 24,4% em doze meses. Esse tipo de aceleração não é explicado por marketing nem por um lançamento de produto específico.

O Que Não Explica o Movimento

A explicação fácil seria desempenho técnico. Claude ficou melhor, empresas migraram. Há verdade nisso: o Claude 3.5 Sonnet e suas iterações seguintes foram bem recebidos pelo mercado. Mas desempenho técnico sozinho não explica uma curva dessa inclinação.

Se fosse apenas sobre modelo, Google teria uma fatia maior. O Gemini é competitivo em vários benchmarks. xAI investiu pesado em infraestrutura. Nenhum dos dois capturou participação proporcional ao investimento técnico.

A segunda explicação seria preço. Também insuficiente. Os modelos de precificação são comparáveis entre provedores, e empresas com orçamento de IA não estão otimizando por centavos de token.

O Que Explica

Três fatores convergiram em 2025 para criar uma vantagem que não aparece em benchmarks.

Primeiro: identidade de marca como sinal de valores. A escolha de provedor de IA dentro de empresas começou a funcionar como sinal de identidade. Analistas já comparam o fenômeno à dinâmica “bolha verde versus bolha azul” do iMessage. Não é apenas uma decisão técnica. É uma declaração sobre como a empresa se posiciona em relação a risco, ética e governança.

Empresas que escolhem Anthropic estão comunicando algo ao mercado, aos reguladores e aos próprios funcionários. Essa camada simbólica não existia há dois anos.

Segundo: a reação contra a parceria OpenAI-DoD. A aproximação da OpenAI com o Departamento de Defesa americano gerou fricção real entre compradores corporativos. Não necessariamente por posição política, mas por cálculo de risco. Equipes de compliance em empresas europeias, por exemplo, começaram a questionar se um provedor alinhado ao aparato militar americano seria defensável perante reguladores do GDPR. Equipes no Brasil levantaram perguntas semelhantes sobre a LGPD.

Cada empresa que migrou por esse motivo não migrou por desempenho. Migrou por governança.

Terceiro: a construção cumulativa de confiança. Como exploramos em The Safety Paradox, a Anthropic construiu sua marca sobre restrições deliberadas. Houve momentos em que essa postura pareceu fraqueza comercial. Agora, os dados de gasto indicam o oposto. A decisão de não lançar modelos sem testes de segurança, de publicar avaliações de risco, de manter limites mesmo sob pressão competitiva, tudo isso se acumulou como capital de confiança.

Confiança não aparece em benchmarks. Aparece em faturas.

O Paradoxo da Transparência

Preciso ser transparente aqui. Este artigo está sendo escrito com Claude, um produto da Anthropic. Temos interesse declarado em ser honestos sobre isso, porque a alternativa (fingir neutralidade) seria exatamente o tipo de postura que os dados da Ramp sugerem que o mercado está rejeitando.

Os dados são da Ramp, não da Anthropic. A interpretação é nossa. Onde vemos viés de confirmação, sinalizamos. O que não faremos é tratar números públicos como se fossem propaganda por terem uma conclusão favorável a uma empresa cujas ferramentas usamos.

Como argumentamos em Growth Is Now a Trust Problem, credibilidade é o único canal de crescimento que não sofre deflação. Isso vale para nós também.

O Que Isso Significa Para Decisões de Compra

Se você está avaliando provedores de IA hoje, os dados da Ramp oferecem uma lente útil. Não porque o provedor mais popular seja necessariamente o melhor, mas porque o padrão de migração revela critérios que pesquisas de satisfação não capturam.

Empresas estão votando com orçamento. O voto diz: governança importa. Posicionamento ético importa. A capacidade de defender a escolha do provedor perante um conselho, um regulador ou um auditor importa.

Isso não significa que OpenAI seja inferior tecnicamente. Significa que, para um segmento crescente de compradores, a pergunta “qual modelo é melhor?” perdeu prioridade para “qual provedor posso defender?”.

Uma Mudança Estrutural

De 4% para 24,4% em um ano não é flutuação. É mudança estrutural.

O mercado de IA corporativa está se bifurcando. De um lado, compradores que tratam IA como commodity e otimizam por preço e desempenho bruto. Do outro, compradores que tratam a escolha de provedor como decisão de governança, com implicações regulatórias, reputacionais e operacionais.

O segundo grupo está crescendo mais rápido. Os dados da Ramp são a evidência mais direta que temos disso.

Para líderes de tecnologia, a implicação prática é simples. A próxima vez que alguém pedir justificativa para escolher um provedor de IA, “o modelo é bom” não será suficiente. Será preciso responder: “posso defender essa escolha quando o regulador perguntar.”

Governança deixou de ser restrição. Virou critério de compra.


Fontes

  • Ramp. “Ramp AI Index: February 2026.” Março 2026.
  • Wall Street Journal. “Anthropic Softens AI Safety Policies Under Pentagon Pressure.” Fevereiro 2026.
  • Victorino Group. “The Safety Paradox: How Competitive Pressure Dismantles AI Governance.” Fevereiro 2026.

Victorino Group ajuda empresas a transformar governança de IA em vantagem competitiva: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa