A Anthropic, empresa sediada em São Francisco, lançou uma acusação bombástica contra três laboratórios chineses de inteligência artificial — DeepSeek, Moonshot AI e MiniMax — por orquestrar campanhas coordenadas em larga escala para extrair capacidades de seus modelos Claude. A empresa afirmou que esses laboratórios geraram coletivamente mais de 16 milhões de interações com o Claude usando cerca de 24.000 contas fraudulentas, violando os termos de serviço da Anthropic e as restrições de acesso regionais.
As campanhas, segundo a Anthropic, representam a evidência pública mais concreta até o momento de uma prática que tem preocupado o Vale do Silício: concorrentes estrangeiros usando sistematicamente uma técnica chamada destilação para avançar anos de pesquisa e investimentos bilionários. “Essas campanhas estão crescendo em intensidade e sofisticação”, escreveu a Anthropic em um post técnico, alertando que o tempo para agir é curto e a ameaça se estende além de qualquer empresa ou região em particular.
A destilação é um processo que extrai conhecimento de um modelo de IA maior e mais poderoso — o “professor” — para criar um modelo menor e mais eficiente — o “aluno”. O modelo aluno aprende com as saídas do professor e pode, assim, alcançar um desempenho próximo ao original, mas com menos recursos computacionais.
Embora a destilação seja uma técnica legítima, a Anthropic alega que ela pode ser armada. Concorrentes podem se passar por clientes legítimos, bombardear um modelo de ponta com prompts cuidadosamente elaborados, coletar as saídas e usá-las para treinar um sistema rival. Assim, capturam capacidades que levaram anos e centenas de milhões de dólares para desenvolver.
A Anthropic revelou que os laboratórios chineses acessaram seus modelos através de serviços de proxy comerciais, que revendem acesso a modelos de IA de ponta em escala. Essas redes, descritas como “arquiteturas de hidra”, consistem em vastas redes de contas fraudulentas que distribuem o tráfego, dificultando a detecção.
A Anthropic não tratou esse caso apenas como uma violação de termos de serviço, mas como uma questão de segurança nacional. Modelos destilados de forma ilícita podem carecer de salvaguardas críticas, permitindo que governos autoritários utilizem a IA para operações cibernéticas ofensivas e campanhas de desinformação.
O confronto entre Anthropic e laboratórios chineses ressalta a crescente tensão no setor de inteligência artificial, onde a destilação emerge como uma técnica poderosa e controversa. As implicações desse embate vão além dos tribunais, atingindo discussões políticas e estratégicas sobre controle de exportação e segurança global. A Anthropic pede por uma cooperação rápida e coordenada entre empresas da indústria, provedores de nuvem e formuladores de políticas para enfrentar essa ameaça emergente.
Participe do beta de Petit Planet e explore um mundo de simulação de vida único.…
Enfrente as novas regras do Portal em Battlefield 6 e descubra como elas afetam sua…
Dirty Films e Searchlight unem forças para criar filmes e séries impactantes. Acompanhe essa nova…
Aposentadoria de Phil Spencer e nomeação de Asha Sharma marcam nova fase para Xbox. Saiba…
Aumente a eficiência dos modelos de linguagem em 3x com predição multi-tokens. Entenda os benefícios…
Acompanhe os confrontos mais eletrizantes do boxe ao vivo e saiba onde assistir. Prepare-se para…