Anthropic Acusa Laboratórios Chineses de Extração de Capacidades de Modelos de IA
A Anthropic, empresa sediada em São Francisco, lançou uma acusação bombástica contra três laboratórios chineses de inteligência artificial — DeepSeek, Moonshot AI e MiniMax — por orquestrar campanhas coordenadas em larga escala para extrair capacidades de seus modelos Claude. A empresa afirmou que esses laboratórios geraram coletivamente mais de 16 milhões de interações com o Claude usando cerca de 24.000 contas fraudulentas, violando os termos de serviço da Anthropic e as restrições de acesso regionais.
Impacto e Implicações das Acusações
As campanhas, segundo a Anthropic, representam a evidência pública mais concreta até o momento de uma prática que tem preocupado o Vale do Silício: concorrentes estrangeiros usando sistematicamente uma técnica chamada destilação para avançar anos de pesquisa e investimentos bilionários. “Essas campanhas estão crescendo em intensidade e sofisticação”, escreveu a Anthropic em um post técnico, alertando que o tempo para agir é curto e a ameaça se estende além de qualquer empresa ou região em particular.
A Técnica de Destilação e Suas Consequências Geopolíticas
A destilação é um processo que extrai conhecimento de um modelo de IA maior e mais poderoso — o “professor” — para criar um modelo menor e mais eficiente — o “aluno”. O modelo aluno aprende com as saídas do professor e pode, assim, alcançar um desempenho próximo ao original, mas com menos recursos computacionais.
Embora a destilação seja uma técnica legítima, a Anthropic alega que ela pode ser armada. Concorrentes podem se passar por clientes legítimos, bombardear um modelo de ponta com prompts cuidadosamente elaborados, coletar as saídas e usá-las para treinar um sistema rival. Assim, capturam capacidades que levaram anos e centenas de milhões de dólares para desenvolver.
Operações Detalhadas: DeepSeek, Moonshot e MiniMax
- DeepSeek: Conduziu a operação mais sofisticada, gerando mais de 150.000 interações com o Claude. Suas táticas incluíam solicitação de raciocínios internos para gerar dados de treinamento em larga escala.
- Moonshot AI: Criadora dos modelos Kimi, realizou mais de 3,4 milhões de interações, focando em raciocínio agentivo e desenvolvimento de agentes de uso computacional.
- MiniMax: Embora menos conhecida, gerou mais de 13 milhões de interações, focando em codificação e uso de ferramentas.
Redes Proxy e Arquiteturas de ‘Hidra’ para Burlar Restrições
A Anthropic revelou que os laboratórios chineses acessaram seus modelos através de serviços de proxy comerciais, que revendem acesso a modelos de IA de ponta em escala. Essas redes, descritas como “arquiteturas de hidra”, consistem em vastas redes de contas fraudulentas que distribuem o tráfego, dificultando a detecção.
Questões de Segurança Nacional e Implicações para a Política de Exportação
A Anthropic não tratou esse caso apenas como uma violação de termos de serviço, mas como uma questão de segurança nacional. Modelos destilados de forma ilícita podem carecer de salvaguardas críticas, permitindo que governos autoritários utilizem a IA para operações cibernéticas ofensivas e campanhas de desinformação.
Conclusão
O confronto entre Anthropic e laboratórios chineses ressalta a crescente tensão no setor de inteligência artificial, onde a destilação emerge como uma técnica poderosa e controversa. As implicações desse embate vão além dos tribunais, atingindo discussões políticas e estratégicas sobre controle de exportação e segurança global. A Anthropic pede por uma cooperação rápida e coordenada entre empresas da indústria, provedores de nuvem e formuladores de políticas para enfrentar essa ameaça emergente.
