Implementação Governada

Quando a Anthropic Admite Que Seu Modelo Produz Design Genérico

TV
Thiago Victorino
11 min de leitura
Quando a Anthropic Admite Que Seu Modelo Produz Design Genérico

Em dezembro de 2025, a Anthropic publicou um guia técnico chamado “Prompting for Frontend Aesthetics”. O autor, Prithvi Rajasekaran, da equipe de Applied AI, ensina como criar prompts estruturados para que o Claude gere interfaces de frontend que não pareçam genéricas.

Leia isso de novo. O próprio fabricante do modelo publicou um documento explicando como contornar a tendência do modelo de produzir designs visualmente idênticos.

Isso não é um tutorial de produtividade. É uma admissão técnica — e revela algo que importa para qualquer organização que depende de IA para produzir artefatos de qualidade.

O Problema Técnico: Convergência Distribucional

Para entender por que LLMs produzem designs genéricos, é preciso entender como eles geram tokens.

Durante a amostragem, modelos de linguagem gravitam para o centro estatístico dos dados de treinamento. Em texto, isso significa frases comuns e estruturas previsíveis. Em design de frontend, significa algo muito específico: fonte Inter, gradientes roxos, cantos arredondados de 12px, fundos brancos, ícones Lucide, espaçamento uniforme.

Não é preguiça do modelo. É estatística. Esses são os padrões que aparecem com maior frequência nos dados de treinamento — milhões de páginas web, templates do Tailwind, projetos open source. O modelo faz exatamente o que foi treinado para fazer: encontrar o ponto mais provável da distribuição.

O resultado tem um nome. A Merriam-Webster escolheu “AI slop” como Palavra do Ano em 2025. Menções ao termo aumentaram nove vezes entre 2024 e 2025, segundo dados da Meltwater. O sentimento negativo atingiu 54% em outubro de 2025. Pinterest e YouTube já introduziram funcionalidades para limitar a visibilidade de conteúdo gerado por IA.

A convergência distribucional não é uma curiosidade acadêmica. É um problema de qualidade com consequências comerciais mensuráveis.

O Que o Guia da Anthropic Propõe

A solução proposta por Rajasekaran tem uma estrutura que deveria chamar a atenção de qualquer pessoa que trabalhe com governança de IA.

O guia propõe criar um “skill” — um bloco de aproximadamente 400 tokens inserido no system prompt — que funciona como um conjunto de restrições para o modelo. Esse skill tem quatro dimensões:

Tipografia. Instruções específicas sobre quais fontes usar e, crucialmente, quais evitar. O guia explicita: “Nunca use Inter, nunca use system-ui como fonte principal.”

Cor e tema. Restrições sobre paletas, com ênfase em evitar gradientes roxo-para-azul e fundos puramente brancos.

Movimento e interação. Diretrizes sobre animações, preferindo transições sutis a efeitos chamativos.

Fundos e texturas. Instruções para abandonar superfícies lisas em favor de texturas com personalidade.

O padrão mais eficaz do guia é a especificação de anti-padrões — dizer ao modelo o que não fazer. Isso funciona porque restringe a região de alta probabilidade da distribuição, forçando o modelo a explorar alternativas menos comuns.

A Leitura de Governança

Agora observe o que aconteceu: um fornecedor de IA acabou de documentar que a qualidade do output de seu modelo requer restrições estruturadas, inseridas programaticamente, para atingir um padrão aceitável.

Isso é governança de output.

Não é diferente, em princípio, do que empresas fazem com compliance, segurança ou controle de qualidade. Um conjunto de regras é definido antecipadamente, codificado em um artefato legível por máquina e aplicado automaticamente no ponto de geração. O operador humano não precisa lembrar das regras a cada interação — elas estão embutidas no sistema.

A estrutura de quatro dimensões (tipografia, cor, movimento, fundos) espelha um princípio fundamental da engenharia de software: separação de responsabilidades. Em vez de pedir ao modelo “faça um design bonito” — um pedido holístico que permite convergência para o centro da distribuição — cada dimensão é governada independentemente.

Quem trabalha com design systems reconhece o padrão. Quem trabalha com governança como código reconhece a arquitetura. A Gartner projeta que 40% dos aplicativos empresariais incorporarão agentes de IA até o final de 2026. Se cada um desses agentes opera sem restrições de qualidade no nível do sistema, a convergência distribucional se torna um problema organizacional, não apenas estético.

O Que o Guia Não Diz

Aqui é onde a análise precisa ser honesta sobre as lacunas — porque elas são significativas.

Acessibilidade está totalmente ausente. O guia não menciona WCAG uma única vez. Não discute prefers-reduced-motion para usuários sensíveis a animações. Recomenda fontes de peso ultraleve sem alertar que pesos abaixo de 300 comprometem legibilidade para pessoas com baixa visão. Não aborda requisitos de contraste.

Para qualquer organização que leva acessibilidade a sério — e no Brasil, a Lei Brasileira de Inclusão exige isso — aplicar as recomendações do guia sem adaptação cria risco de conformidade.

Performance é ignorada. Fontes customizadas introduzem requisições HTTP que bloqueiam renderização. Cada fonte adicional aumenta o Cumulative Layout Shift (CLS) e degrada o Largest Contentful Paint (LCP) — duas métricas que o Google usa para ranqueamento. O guia recomenda fontes “distintas” sem discutir o custo de carregá-las.

O contexto determina o que é apropriado. Um dashboard empresarial, um sistema de saúde, um portal governamental — esses contextos priorizam previsibilidade e familiaridade sobre novidade. O guia trata “genérico” como sinônimo de “ruim”, mas em muitos domínios, previsibilidade visual é um requisito, não um defeito.

Substituir um padrão por outro não é solução. O guia recomenda fontes como Space Grotesk, Instrument Serif e Fraunces como alternativas “distintas”. Se toda equipe que lê o guia adotar essas fontes, elas se tornam o novo genérico em seis meses. O problema de convergência distribucional não se resolve escolhendo fontes diferentes — resolve-se criando sistemas de decisão que reflitam a identidade de cada organização.

Viés de autopromoção do fornecedor. A Anthropic está promovendo capacidades do Claude. O guia afirma “melhorias mensuráveis” sem publicar metodologia, dados ou benchmarks independentes. Isso não invalida as técnicas — mas exige que o leitor calibre suas expectativas.

O Padrão Que Importa

Apesar das lacunas, o guia da Anthropic revela um padrão que merece atenção: a qualidade de output de IA não é propriedade do modelo — é propriedade da governança aplicada ao modelo.

Isso tem implicações diretas.

Para equipes de produto: Se sua organização usa IA para gerar interfaces, código, conteúdo ou qualquer artefato voltado ao cliente, a qualidade desse output depende das restrições que você define, não das capacidades do modelo. Um modelo mais potente sem restrições bem definidas produz lixo mais rápido.

Para líderes de design: O design system é a camada de governança natural para output visual de IA. Se seu design system é um PDF que ninguém lê, a IA também não vai lê-lo. Se é um artefato estruturado, legível por máquina, versionado e auditável, torna-se a fundação de qualidade para qualquer agente que gere interfaces.

Para quem pensa em escala: À medida que agentes de IA se multiplicam dentro das organizações, a governança de output não pode ser artesanal. Cada agente que gera artefatos precisa de restrições codificadas — não porque IA é incompetente, mas porque convergência distribucional é uma propriedade estatística que não desaparece com modelos melhores.

Anti-Padrões de Governança

O guia da Anthropic, sem querer, ilustra quatro anti-padrões que vemos repetidamente nas organizações:

Governança reativa. O guia existe porque o problema já era visível. A organização não antecipou que modelos gravitariam para o centro da distribuição — esperou o acúmulo de reclamações sobre “AI slop” para agir. Em governança, reativo é caro.

Governança desconectada de padrões existentes. O guia não referência nenhum framework de acessibilidade, nenhuma métrica de performance, nenhum padrão de design system existente. Opera em isolamento. Governança eficaz se integra aos controles que já existem.

Governança sem medição. “Melhorias mensuráveis” sem dados é marketing, não governança. Se você não consegue medir a diferença entre output com e sem restrições, não consegue melhorar as restrições sistematicamente.

Governança que resolve o sintoma. O problema não são fontes genéricas. O problema é que modelos de IA convergem para o centro de suas distribuições de treinamento em todas as dimensões de output. Resolver apenas a dimensão visual é tratar um sintoma enquanto a causa opera em texto, código, análise e qualquer outro domínio onde IA produz artefatos.

A Implicação Mais Ampla

A Anthropic não publicou apenas um guia de design. Publicou uma admissão documentada de que modelos de IA têm lacunas de qualidade sistemáticas que requerem intervenção estruturada do operador.

Essa admissão generaliza. Se convergência distribucional afeta design visual, afeta também:

  • Código gerado por IA — que gravita para padrões comuns independente do contexto
  • Conteúdo gerado por IA — que produz tom, estrutura e vocabulário previsíveis
  • Análises geradas por IA — que replicam frameworks populares em vez de pensar no contexto específico
  • Decisões assistidas por IA — que refletem correlações frequentes, não necessariamente causais

Em cada caso, a solução é a mesma: governança estruturada no nível do sistema, com restrições explícitas, anti-padrões documentados e separação de responsabilidades por dimensão.

Não é sobre fazer IA funcionar melhor. É sobre aceitar que IA sem governança produz resultados que convergem para a mediocridade — e que essa convergência é uma propriedade do sistema, não uma falha a ser corrigida por modelos melhores.

O Que Fazer

Se sua organização produz artefatos com IA — qualquer tipo de artefato —, três ações são imediatas:

Audite seus outputs. Compare o que seus agentes de IA produzem com o que suas equipes aceitariam de um profissional humano. Se a barra é diferente, a lacuna de governança já existe.

Codifique restrições. Transforme seus padrões de qualidade em artefatos legíveis por máquina — system prompts, skills, arquivos de instrução. Um guia de estilo em documento não governa; um guia de estilo em código governa.

Meça antes e depois. Se você não sabe quantificar a diferença entre output governado e output livre, suas restrições são suposições, não governança.

A Anthropic mostrou que até o fabricante do modelo precisa de guardrails para obter qualidade aceitável. Se eles precisam, sua organização também precisa.

A questão não é se seus outputs de IA são bons o suficiente. É se alguém está medindo.


Fontes

  • Prithvi Rajasekaran. “Prompting for Frontend Aesthetics.” Anthropic Blog, dezembro 2025.
  • Euronews. “2025 Was the Year AI Slop Went Mainstream.” Dezembro 2025.
  • Figma Blog. “5 Shifts Redefining Design Systems in the AI Era.” 2025.
  • CNCF. “The Autonomous Enterprise and the Four Pillars of Platform Control.” Janeiro 2026.
  • Meltwater. Dados sobre menções de “AI slop” em mídia, 2024-2025.
  • Gartner. Previsão sobre adoção de agentes de IA em aplicativos empresariais, 2026.

O Victorino Group projeta camadas de governança para organizações que usam IA em produção. Se seus outputs de IA convergem para o genérico e ninguém está medindo a diferença, vamos resolver isso. | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa