MEDVi e o Vácuo de Governança na Saúde Automatizada

TV
Thiago Victorino
10 min de leitura
MEDVi e o Vácuo de Governança na Saúde Automatizada
Ouvir este artigo

Uma empresa fundada em setembro de 2024 com US$20 mil de investimento inicial. Em doze meses, US$400 milhões de receita. Projeção para o segundo ano: US$1,8 bilhão. Margem líquida de 16,2%. Duzentos e cinquenta mil clientes. Dois funcionários.

Os números da MEDVi parecem saídos de um pitch deck de ficção científica. Mas são reais, pelo menos na medida em que os dados disponíveis permitem verificar. E o que eles revelam não é uma história de inovação por inteligência artificial. É uma história sobre o que acontece quando a ausência de governança se torna modelo de negócio.

O Papel de Presente

Kyle Harrison, general partner na Contrary, publicou uma análise em abril de 2026 que enquadra a MEDVi de forma precisa: “IA é o papel de presente, não o presente.” A inteligência artificial no modelo da MEDVi não diagnostica, não prescreve, não monitora. Ela cumpre uma função cosmética. Gera imagens de antes e depois (com ferramentas como Midjourney e Runway). Popula perfis médicos com rostos de banco de imagem. Alimenta um sistema de intake que aprova receitas sem verificação clínica mínima.

O presente real é outro: arbitragem regulatória. A MEDVi opera na zona cinzenta entre telemedicina e varejo farmacêutico, surfando a demanda explosiva por GLP-1 (os medicamentos para perda de peso que dominaram o mercado americano nos últimos dois anos). A infraestrutura clínica não pertence à MEDVi. Pertence à CareValidate e à OpenLoop Health, que juntas empregam cerca de 700 pessoas. A MEDVi, com seus dois funcionários, é essencialmente uma camada de aquisição de clientes com verniz tecnológico.

Para dimensionar o contraste: a Hims & Hers, que opera no mesmo segmento de GLP-1, tem US$2,4 bilhões em receita e 2.400 funcionários. Margem líquida de 5,5%. A diferença entre 5,5% e 16,2% de margem não é eficiência. É a diferença entre quem investe em infraestrutura clínica e quem terceiriza tudo, inclusive a responsabilidade.

As Falhas Que Importam

A análise de Harrison documenta falhas que, em qualquer sistema de saúde minimamente governado, seriam motivo de interdição imediata.

Médicos que não existem. O site da MEDVi exibia perfis de profissionais fabricados. Um deles, “Dr. Tuckr Carlzyn”, aparecia com foto de banco de imagem. Nenhum registro profissional correspondente. Em saúde, a identidade do profissional não é detalhe estético. É requisito regulatório. Fabricar perfis médicos não é erro de marketing. É fraude.

Intake sem validação clínica. O sistema de triagem da MEDVi aprovou uma prescrição para perda de peso em um paciente que informou pesar 27 quilos. Aceitou 31 de fevereiro como data de nascimento. Aprovou um indivíduo de 2,41 metros e 159 quilos com “94% de probabilidade de sucesso” sem mudanças alimentares. Esses não são edge cases obscuros. São testes elementares que qualquer sistema de intake com governança mínima rejeitaria.

Imagens fabricadas por IA. Fotos de antes e depois, material central na comunicação com pacientes, eram geradas por inteligência artificial. Em um contexto onde pacientes tomam decisões sobre medicação com base nessas imagens, a fabricação não é apenas antiética. É perigosa.

Dados de pacientes expostos. Em janeiro de 2026, a OpenLoop Health sofreu um vazamento que expôs 1,6 milhão de registros de pacientes. A MEDVi terceirizou a infraestrutura clínica, mas não terceirizou a responsabilidade sobre os dados dos seus clientes. Ou pelo menos não deveria ter terceirizado.

A FDA emitiu carta de advertência. Uma ação coletiva foi aberta em Delaware. Mas a pergunta que permanece é por que tudo isso só veio à tona depois, quando cada uma dessas falhas era detectável antes.

O Padrão Que Se Repete

Como exploramos em IA Vertical e a Lacuna de Governança nos Serviços Profissionais, a IA vertical compete por orçamentos de pessoal, não de TI. Isso muda a natureza do risco. Quando o software era ferramenta de produtividade, falhas significavam ineficiência. Quando o software executa trabalho profissional, falhas significam dano direto ao cliente.

A MEDVi é a prova empírica dessa tese no setor de saúde. O mesmo padrão que identificamos no jurídico com a Harvey se repete aqui, com uma diferença importante: na saúde, as consequências de falhas de governança não são financeiras. São físicas.

O padrão tem três elementos recorrentes:

Escala antes de controles. A MEDVi atingiu 250 mil clientes antes de ter infraestrutura para verificar se seus profissionais existiam. Harvey atingiu 25 mil agentes antes de publicar dados sobre taxa de erro. A velocidade de escala é inversamente proporcional à maturidade de governança.

IA como maquiagem, não como substância. A inteligência artificial na MEDVi não melhora o cuidado ao paciente. Ela melhora a taxa de conversão. Gera imagens atraentes, popula interfaces com aparência de legitimidade, automatiza aprovações que deveriam exigir julgamento clínico. A tecnologia serve ao marketing, não à medicina.

Terceirização de responsabilidade. A MEDVi não emprega médicos. Não opera a infraestrutura clínica. Não armazena os dados dos pacientes. Mas é a marca que o paciente vê, o site onde ele faz intake, a empresa que cobra pelo serviço. A arquitetura de terceirização dilui a responsabilidade sem eliminar o risco.

O Que Isso Exige

A reação instintiva a casos como o da MEDVi é pedir regulação mais dura. Mas regulação reativa (esperar a falha, depois reagir) é exatamente o modelo que permitiu que a MEDVi operasse por um ano inteiro antes de enfrentar consequências formais.

O que falta não é lei. É governança operacional. A capacidade de uma organização verificar, em tempo real, que seus sistemas automatizados estão operando dentro de parâmetros aceitáveis. Isso inclui:

Verificação de identidade profissional que não dependa de auto-declaração. Se um sistema exibe um perfil médico, deve existir validação contra registros oficiais. Automatizada, contínua, auditável.

Validação clínica de intake que rejeite entradas impossíveis antes que cheguem a qualquer profissional (ou pseudo-profissional). Um sistema que aceita 31 de fevereiro como data de nascimento não tem validação. Tem formulário.

Monitoramento de conteúdo gerado por IA que distingua material informativo de material fabricado. Quando fotos de antes e depois são geradas por Midjourney, o paciente precisa saber. A ausência de disclosure é a ausência de consentimento informado.

Governança de cadeia de fornecedores que estenda os requisitos de segurança e privacidade aos parceiros terceirizados. A MEDVi pode não operar a OpenLoop Health, mas 1,6 milhão de registros vazados são de pacientes da MEDVi.

Nada disso é tecnologicamente complexo. Validar uma data de nascimento é trivial. Verificar um registro médico contra uma base pública é automação básica. Marcar conteúdo gerado por IA é uma flag booleana. A questão nunca foi capacidade técnica. Foi incentivo econômico. A governança custa dinheiro e reduz velocidade de escala. Na ausência de enforcement, a decisão racional é não implementar.

A Pergunta Para Quem Compra

Se a sua organização usa serviços de saúde automatizados, ou está avaliando fornecedores que usam IA em contextos clínicos, a MEDVi oferece um roteiro do que perguntar:

Quem são os profissionais que assinam as prescrições, e como a identidade deles é verificada? Qual é o processo de validação clínica antes da aprovação de receitas? O conteúdo visual (fotos, resultados projetados) é baseado em dados reais ou gerado por IA? Onde ficam os dados dos pacientes, quem os opera e qual é o histórico de segurança desse operador? Existe auditoria independente do processo de intake e prescrição?

Se o fornecedor não consegue responder a essas perguntas com evidências, a IA no nome da empresa é decoração.

A MEDVi gerou US$400 milhões porque a demanda por GLP-1 é enorme e os controles são frágeis. Não porque a inteligência artificial criou algum valor clínico. A diferença entre uma empresa de saúde e uma empresa que vende medicamentos é governança. Sem ela, a IA é só o papel de presente.


Fontes

  • Harrison, Kyle. “The $1B Rorschach Test.” Investing 101 (Substack). Abril 2026.

A Victorino ajuda organizações a avaliar e construir governança operacional para sistemas automatizados, incluindo saúde digital: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa