
Sete vulnerabilidades críticas foram descobertas no ChatGPT. Eles permitem que hackers roubem conversas, manipulem respostas de IA ou executem códigos maliciosos no dispositivo. Chamadas de “HackedGPT”, essas falhas preocupam os especialistas em segurança cibernética da Tenable.
A Tenable, especialista americana em gerenciamento de riscos de TI, descobriu sete vulnerabilidades no ChatGPT. As falhas, consideradas críticas, foram identificadas no ChatGPT-4o e no ChatGPT-5. Eles foram agrupados sob o nome ambíguo de HackeadoGPT. O ChatGPT 5.1, lançado após a realização do estudo, não é necessariamente afetado.
Conforme explica a Tenable, as falhas colocam os usuários em risco de vazamento de dados e manipulação de respostas de IA. Mais concretamente, estas vulnerabilidades podem permitir que um invasor roube conversas, acesse o histórico ou manipule as respostas do chatbot para espalhar informações falsas. Em suma, é uma porta aberta a todo tipo de abuso. Fazemos um balanço das sete falhas identificadas pela Tenable.
Leia também: Testamos o ChatGPT Atlas, o navegador de IA que promete mudar tudo – aqui está a nossa opinião
As 7 falhas que atingiram o ChatGPT
A primeira violação de segurança é ocultar instruções maliciosas em conteúdo legítimo, como uma postagem de blog ou um comentário online. Quando o ChatGPT consulta este site a pedido do seu interlocutor, lê e executa estes comandos sem se aperceber. A IA fica assim sob o controle do hacker. Ele pode assim manipular o modelo para que ele revele informações privadas ou execute ações não autorizadas. O ataque depende da confiança um tanto cega do ChatGPT em fontes externas. Para explorar a falha, o internauta deve acessar o site ou compartilhar a página com a IA.
A segunda vulnerabilidade também depende de código malicioso oculto. Desta vez, o ataque não requer nem a menor ação do usuário. É por isso que é considerada uma vulnerabilidade de “clique zero”. Basta fazer uma pergunta ao ChatGPT enquanto ele visualiza uma página contendo código oculto para desencadear o ataque. O usuário não deve pedir ao ChatGPT para visualizar a página. Isso é consultado como parte de uma pesquisa. Resumindo, você só precisa fazer uma pergunta simples à IA para que o ataque cibernético comece. O modus operandi é semelhante ao dos ataques baseados nas vulnerabilidades do Gemini. Mais uma vez, os hackers esconderam instruções maliciosas invisíveis.
A seguinte falha requer apenasapenas um clique do alvo. Trata-se do recurso ChatGPT que permite compartilhar links com uma pergunta pré-preenchida, como “chatgpt.com/?q=Como fazer um bolo”. Esta função permite abrir diretamente uma conversa sobre o assunto com o chatbot. Novamente, basta inserir instruções maliciosas no link. Os hackers só precisam compartilhar o link e esperar que a vítima clique nele.
A quarta vulnerabilidade crítica identificada permite contornar certos mecanismos de segurança do ChatGPT. Em teoria, o chatbot verifica e bloqueia links perigosos. A OpenAI de fato implementou um sistema de filtroo que evita que o internauta acabe em um site malicioso. Para contornar esse filtro, os criminosos desenvolveram “URLs wrapper”, agrupando URLs em francês. Estes incluem, por exemplo, links de redirecionamento do Bing. Links redirecionados enganam o ChatGPT. O chatbot pensa que este é um URL confiável e não bloqueia o site. A falha depende da confiança que a IA deposita nos redirecionamentos.
A Tenable também identificou um problema de segurança em a função de pesquisa do ChatGPT, chamado SearchGPT. Para explorar a falha, o invasor inserirá instruções maliciosas nos resultados de pesquisa do módulo. Estas instruções são adaptadas para mascarar solicitações feitas pelo usuário. Uma vez interpretados pela IA, eles forçarão o ChatGPT a realizar ações maliciosas, como roubo de dados. Para passar despercebidas, as instruções são muitas vezes codificadas ou camufladas.
A sexta violação permite que um hacker oculte código ou instruções escondidas em um bloco de código ou texto no formato Markdown. Para o usuário, a mensagem exibida parece normal e inofensiva. Quando o ChatGPT interagir com o bloco ou texto, será forçado a obedecer e executar as solicitações dos cibercriminosos.
A última vulnerabilidade diz respeito à memória persistente do ChatGPT. Esta função permite que a IA personalize suas respostas utilizando informações acumuladas sobre seu usuário. Os pesquisadores demonstraram que um hacker pode injetar instruções maliciosas diretamente nesta memória. Esses comandos permanecem ativos mesmo após fechar e reabrir o chatbot. Cada nova conversa pode reativar estas instruções.
Leia também: “Um pesadelo de privacidade” – ChatGPT Atlas acusado de coletar dados confidenciais
O perigo que paira sobre os usuários do ChatGPT
Para Moshe Bernstein, engenheiro de pesquisa da Tenable, essas vulnerabilidades “destaca uma fraqueza fundamental na forma como grandes modelos de linguagem avaliam informações confiáveis”. Levado “Separadamente, essas falhas parecem menores, mas combinadas formam uma cadeia de ataque completa, desde a injeção de dados até a persistência e a exfiltração.” Que “prova que os sistemas de IA não são apenas alvos potenciais, eles podem ser transformados em ferramentas de ataque capazes de coletar discretamente informações de conversas ou navegação comuns”acrescenta o pesquisador.
Alertada pela Tenable, a OpenAI corrigiu diversas das falhas reportadas. Infelizmente, algumas das vulnerabilidades ainda estão abertas. Os pesquisadores da Tenable, portanto, incentivam os usuários a o maior cuidado quando usam ferramentas baseadas em IA, como o essencial ChatGPT. Moshe Bernstein acredita que “Indivíduos e organizações devem agora assumir que as ferramentas de IA podem ser manipuladas.”
Para evitar surpresas desagradáveis, evite copiar e colar conteúdo desconhecido de blogs ou fóruns na conversa com o ChatGPT. Também recomendamos que você nunca salve informações muito confidenciais ou pessoal na memória do chatbot. Tenha cuidado com links, especialmente redirecionamentos. Eles podem parecer inofensivos, mas provavelmente levarão você a sites com armadilhas. É o caso do ChatGPT ou durante a navegação na web. Na Internet ou nas suas conversas com a IA, é importante estar vigilante.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google News, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.