OpenAI e Anthropic acusam DeepSeek e outros especialistas chineses em IA de extrair capacidades de seus modelos Claude e GPT para acelerar o treinamento de seus próprios modelos. O que não falta é sal, enquanto os dois gigantes americanos são alvo de ações judiciais pela exploração não autorizada de conteúdos protegidos.

Antrópico afrontar um perigo. Em uma postagem furiosa no blog, o criador do Cláudio explica ter identificado um “ campanha em escala industrial » liderado por três laboratórios chineses, DeepSeekMoonshot e MiniMax. A culpa é deles: terem extraído ilegalmente as capacidades do modelo de IA da Anthropic para melhorar seus próprios modelos a um custo menor.

Quando os destiladores são destilados

O processo, denominado “destilação”, não é em si crime. É até prática comum treinar um modelo menor ou menos eficiente com base nas respostas de um modelo mais poderoso. Grandes empresas de IA a utilizam para produzir versões mais leves e mais baratas para seus clientes. Em si, não há nada de ilegal no método.

O que representa um problema aqui, segundo a Anthropic, é o uso clandestino: em vez de destilar seus próprios modelos, esses laboratórios teriam usado Claude como “professor” involuntário. Isso permitiria que certas habilidades fossem adquiridas. em uma fração do tempo e do custo » necessário desenvolvê-los de forma independente. Segundo a start-up americana, estas três empresas criaram mais de 24.000 contas fraudulentas e geraram mais de 16 milhões de trocas com Claude.

DeepSeek teria ficado satisfeito com 150.000 interações com Claude, em comparação com 3,4 milhões para Moonshot e 13 milhões para MiniMax. A Anthropic não está sozinha neste campo de batalha: a OpenAI reclamou diretamente à Casa Branca acusando a DeepSeek de ter usado a mesma tática, desta vez com o GPT.

Os três laboratórios chineses teriam assim extraído capacidades de raciocínio avançadas, alternativas a pedidos politicamente sensíveis, da programação para agentes de codificação. O volume e a repetição dos pedidos teriam traído uma lógica de extracção sistemática e não de utilização normal.

Para a Antrópica, essa prática dos concorrentes chineses representa um risco à segurança nacional dos Estados Unidos. Os modelos americanos incluem salvaguardas para limitar certos usos (biologia sensível, ataques cibernéticos, etc.). Se um modelo for destilado ilicitamente, essas proteções não poderão ser reproduzidas enquanto as capacidades brutas permanecerem. Os sistemas militares ou de vigilância poderiam beneficiar disto.

A acusação não é nova: já em janeiro de 2025, a OpenAI acusou o DeepSeek – cujo modelo R1 abalou toda a indústria de IA – de destilação. E então, como agora, isso suscitou certa zombaria.

A ironia é que estas mesmas empresas continuam a defender em tribunal o seu direito de treinar os seus modelos com oceanos de conteúdos protegidos por direitos de autor, muitas vezes sem permissão ou compensação aos autores. Vimos isso de novo ontem com Mistral. Por um lado, a destilação seria um ataque intolerável à inovação; por outro, a aspiração massiva de textos, imagens e dados cairia no âmbito do uso justo.

De qualquer forma, a Anthropic não quer ficar de braços cruzados. A start-up investe em mecanismos de defesa para coibir campanhas de destilação ilícita: sistemas de detecção e identificação, rastreamento de atividades coordenadas entre milhares de contas, partilha de indicadores técnicos com outras empresas de IA, procedimentos de verificação mais rigorosos, etc. Mas a empresa reconhece que nenhum ator será capaz de resolver o problema sozinho: nesta escala, a resposta terá de ser coordenada entre fabricantes, anfitriões e decisores públicos.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

Antrópico

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *