A Anthropic é acusada pelos desenvolvedores de ter degradado deliberadamente o desempenho de seus modelos Claude Opus 4.6 e Claude Code.

Será que a Antrópica voluntariamente desempenho degradado de seus modelos Claude Opus 4.6 e Claude Code? Alguns desenvolvedores e especialistas em IA suspeitam que a empresa americana tenha restringido o desempenho de seus dois modelos. Em alguns casos, estas acusações são baseadas em sentimentos. Em outros casos, essas afirmações são baseadas em estudos. Por sua vez, a Anthropic nega categoricamente ter restringido seus dois modelos.

Claude Sonnet 4.6 e Claude Opus 4.6 são menos eficientes?

Nas redes sociais, diversos desenvolvedores e especialistas em IA afirmam ter observado que esses dois modelos se tornaram menos eficientes na realização de raciocínio sustentado, menos confiáveis ​​e mais intensivos em tokens do que há algumas semanas. Além disso, esses dois modelos, amplamente elogiados pelo seu desempenho, agora tendem a abandonar tarefas e a alucinar, ao mesmo tempo que adotam comportamentos mais focados na solução mais simples.

Por meio de uma discussão no GitHub, Stella Laurenzo, diretora sênior do grupo de IA da AMD, explica que simplesmente não pode mais confiar em Claude Code para trabalhos complexos de engenharia. Por sua vez, um gerente sênior de IA de uma grande empresa de semicondutores diz que não é apenas um sentimento e que regressões são visíveis em logs, padrões de uso de ferramentas e correções de usuários.

A degradação do desempenho de Claude Opus 4.6 e Claude Code não seriam, portanto, simples sentimentos, mas sim factos, o que é confirmado pela empresa BridgeMind, que gere o teste de alucinação BridgeBench. Neste dia 12 de abril, a empresa registrou que Claude Opus 4.6 passou de uma precisão de 83,3% (o que a colocou em segundo lugar no seu ranking) para uma precisão de 68,3%, relegando-o assim para o décimo lugar no ranking. Para a BridgeMind, esta é a prova de que “ Claude Opus 4.6 foi restringido “.

No processo, vários importantes meios de comunicação americanos abordaram o assunto. Nas redes sociais, alguns suspeitam que a Anthropic tenha reduzido o desempenho de sua IA para vendê-los pelo mesmo preço. Outros assumem que a empresa reduziu a potência dos seus dois modelos face à forte demanda do mercado. De referir ainda que outros especialistas, como Paul Calcraft, software externo e investigador de IA na X, acreditam que estas alegações são, em certos casos, exagerado ou que se baseiam em processos de avaliação inadequados.

Antrópico reage às acusações

A Anthropic nega as acusações apresentadas acima e nega formalmente qualquer degradação voluntária dos seus modelos face à pressão da procura. A empresa americana reconheceu, no entanto, ter feito algumas modificações nos limites de utilização e nos parâmetros de raciocínio padrão, mas sem que isso tenha impacto no desempenho dos seus modelos. Diante das acusações de contenção, a Anthropic fez diversas modificações: introdução de parâmetros de esforço ajustáveis, aumento da transparência no change log ou mesmo exibição das etapas de raciocínio implícito para justificar as respostas do modelo.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

VentureBeat

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *