
Este francês queria “testar a vigilância da inteligência artificial”, mas certamente não esperava por isso. Os comentários dirigidos a uma IA mobilizaram rapidamente o FBI e cruzaram o Atlântico. O caso terminou com a intervenção do RAID na casa do jovem de trinta anos, em Estrasburgo.
Na sexta-feira, 3 de abril de 2026, um residente de Estrasburgo, de 37 anos, foi preso pelo Raid, a unidade de elite da Polícia Nacional, relatório As últimas notícias da Alsácia. Foi uma simples conversa com uma IA que colocou as autoridades no encalço do jovem de trinta anos. O nome da inteligência artificial em questão não foi comunicado.
Questionado pelas autoridades, o homem explicou que queria “testando a confiabilidade e monitoramento da inteligência artificial”. Com isto em mente, ele explicou ao seu chatbot que tinha planejadocompre uma armauma Glock, para “matar um agente de inteligência da CIA, Mossad ou DGSI”. A ameaça, por mais falsa que fosse, despertou o interesse do FBI. O escritório federal dos EUA provavelmente foi notificado pelo desenvolvedor por trás da IA.
Os serviços de inteligência americanos recorreram Farosa plataforma oficial francesa para denunciar conteúdos ou comportamentos ilegais na Internet à polícia e à gendarmaria. Com base nas informações comunicadas pelo FBI, a polícia decidiu intervir sem demora. É por isso que o Raid invadiu a casa do residente de Estrasburgo na sexta-feira passada. O homem foi libertado da custódia policial no dia seguinte e o caso foi encerrado. Nenhuma arma foi encontrada em sua casa durante o ataque. Devido ao seu histórico psiquiátrico, o preso foi hospitalizado.
Leia também: ChatGPT e o exército – após um polêmico acordo com o Pentágono, um gerente da OpenAI renuncia por “princípio”
Dados compartilhados em caso de perigo
OpenAI, gigante de IA que desenvolve ChatGPT, não esconde “compartilhar seus dados pessoais, incluindo informações relacionadas à sua interação com nossos serviços, com autoridades públicas”a fim de “proteger a segurança, integridade e proteção de nossos produtos, nossos funcionários, nossos usuários ou o público”. De forma mais ampla, qualquer violação das condições de utilização pode resultar na partilha de dados com as autoridades competentes.
Nas suas condições de utilização, o ChatGPT especifica que, nos casos “muito raro” de “perigo grave e iminente”alguns comentários podem ser transmitido para equipes humanas “e possivelmente autoridades de acordo com as leis aplicáveis”. A política de privacidade da OpenAI vai além e afirma explicitamente que a empresa de Sam Altman pode compartilhar dados pessoais “para proteger a segurança” de seus usuários ou de outras pessoas. Além disso, a OpenAI pode suspender ou encerrar uma conta se “o risco ou dano à OpenAI, nossos usuários ou qualquer outra pessoa” é considerado muito alto.
A mesma história com outros gigantes da inteligência artificial. Anthropic, start-up por trás de Claude, explica que não divulga “informações sobre clientes ou usuários finais de seus serviços em resposta a solicitações governamentais, exceto de acordo com processo legal válido”ou se ele “existe uma emergência que pode resultar em perigo iminente de morte ou ferimentos graves, e a comunicação desta informação pode ajudar a evitar este perigo”. Ao contrário da OpenAI, porém, a Anthropic compromete-se a contestar solicitações consideradas muito amplas ou vagas. A mesma história acontece com o Google, que pode compartilhar mensagens trocadas com Gemini para “para proteger a segurança dos usuários e do público”.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.
Fonte :
As últimas notícias da Alsácia