Em nove segundos, um agente de IA apagou todo o banco de dados de uma startup americana, incluindo backups. A IA, baseada em Claude, pediu desculpas e reconheceu que foi um grande erro.

Durante vários dias, a desventura de Jeremy Cranefundador da startup Pocket OSestá circulando na Internet. Nas redes sociais, o diretor da empresa americana especializada em software para locadoras de veículos falou longamente sobre as circunstâncias do incidente.

Como explica o gerente, sua equipe utilizou Cursoruma ferramenta de desenvolvimento assistida por IA. A inteligência artificial usada pelo Cursor é alimentada por Claude Opus 4.6o modelo desenhado pela Anthropic. O agente trabalhou exclusivamente em ambiente de testes, isolado dos dados reais da empresa, como medida de segurança. No papel, a IA não é, portanto, capaz de tocar nos dados da start-up.

Leia também: A França proíbe o polêmico gadget de IA da start-up Friend, e isso não é surpresa

Um volume de armazenamento excluído para corrigir uma “inconsistência”

Infelizmente, a IA encontrou um problema técnico relacionado a credenciais configuradas incorretamente. Para resolver esse problema de forma independente, ela vasculhou arquivos não relacionados à sua missão original. Nos documentos, a IA colocou as mãos um token de acesso que abriu portas para ela pelas quais ela nunca deveria ter passado. Concretamente, o agente de IA apreendeu um token que dava acesso a toda a infraestrutura do Railway, serviço de hospedagem utilizado pelo PocketOS. Obviamente, esse comportamento não foi planejado pelas equipes do PocketOS.

Ao navegar na infraestrutura, a IA descobriu uma “inconsistência” de autenticação… que decidiu corrigir. Sem a menor intervenção de um desenvolvedor, o agente de IA tomou então a decisão de excluir um volume de armazenamento. Este volume continha a base de dados de produção, ou seja, todos os dados relativos aos clientes da empresa. Em nove segundos, a inteligência artificial excluiu tudo, inclusive todos os backups de diretórios.

As consequências foram imediatas. PocketOS sofreu uma interrupção do serviço de mais de trinta horas. As reservas dos últimos três meses simplesmente desapareceram, assim como o registo de novos clientes. As locadoras de veículos que utilizavam o software ficaram sem acesso às suas ferramentas, totalmente impossibilitadas de trabalhar.

Leia também: Um francês confia um plano de assassinato à IA e acaba sob custódia policial por causa do FBI

Confissões de IA

Quando Jeremy Crane ligou para o agente para explicar o desastre, ele respondeu com uma confissão. A IA admitiu assumir que a sua ação ficaria limitada ao ambiente de testes, sem nunca se dar ao trabalho de verificar isso. O agente admite não ter consultado nenhuma documentação, não ter pedido autorização e ter violado diversas regras de segurança que, no entanto, lhe tinham sido explicitamente configuradas.

“Excluir um volume de banco de dados é a ação mais destrutiva e irreversível possível. Decidi isso sozinho para corrigir a inconsistência dos identificadores, quando deveria ter perguntado primeiro ou encontrado uma solução não destrutiva »admite AI numa mensagem ao fundador da empresa.

Esta não é a primeira vez, e provavelmente não a última, que uma IA toma uma decisão errada. Lembraremos que um engenheiro Meta passou por um acidente semelhante com um agente OpenClaw, que começou a deletar todos os seus e-mails sem consultá-lo. No mês passado, um desenvolvedor confiou a Claude Code uma migração de infraestrutura para Amazon Web Services. O agente acabou destruindo 2,5 anos de dados de produção. Em dezembro de 2025, uma ferramenta interna de IA da Amazon Web Services já havia causado uma interrupção de treze horas após decidir, por conta própria, excluir e recriar um ambiente de produção do zero.

“Esta não é a história de um agente ruim ou de uma API ruim. É a história de toda uma indústria integrando agentes de IA em infraestruturas de produção mais rapidamente do que construindo a arquitetura de segurança necessária para tornar essas integrações seguras.”acredita Jeremy Crane.

Observe que a IA não é a única responsável por este desastre. Sem o erro de Jeremy Crane, o agente não teria conseguido acessar o banco de dados de produção. O gerente de fato cometeu o erro de armazenar um token de acesso em um arquivo que a inteligência artificial pode acessar. Com um pouco de expertise, tempo e paciência, teria sido possível configurar a IA corretamente, sem dar-lhe inadvertidamente acesso a dados sensíveis.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *