A lei europeia chamada “ChatControl 1.0” pelos seus detratores expirou no sábado, 4 de abril. Os gigantes digitais não se importam e mantêm o curso.

Desde sábado, 4 de abril de 2026, as empresas de tecnologia não têm mais base legal para verificar comunicações privadas em busca de conteúdo de abuso infantil na Europa. A lei temporária de 2022 que os autorizava a fazê-lo expirou, após a rejeição da sua prorrogação pelo Parlamento Europeu no final de março. Microsoft, Google, Meta e Snapchat respondeu imediatamente: eles continuarão de qualquer maneira.

Leia também: WhatsApp que continua pesquisando “voluntariamente” conteúdo de pornografia infantil em suas mensagens? Esta comissão do Parlamento Europeu diz que não

Três anos de negociação

O impasse dura desde novembro de 2023. O projeto de regulamento europeu CSAM ou CSAR, denominado “ Controle de bate-papo 2.0″ por seus detratores, com o objetivo de tornar obrigatória a verificação automatizada de mensagens privadas. O suficiente para incitar os defensores da privacidade, que veem isso como uma porta aberta para a vigilância em massa. Apoiadores do texto, incluindo Europol e o Chanceler alemão Friedrich Merz, acreditam, pelo contrário, que é a única resposta eficaz à proliferação de conteúdo criminoso infantil.

Mas nenhum compromisso foi alcançado em três anos de discussões, embora as negociações ainda estejam em curso. Até que este projeto de regulamento seja adotado, o regime temporário continuou a ser aplicado. Mas o Parlamento Europeu rejeitou a extensão deste último, denominado “Chat Control 1.0” pelos seus oponentes. Esta lei de 2022, que autorizava os gigantes digitais a digitalizar conversas privadas, expirou, portanto, no sábado, 4 de abril.

A reacção da Comissão foi imediata. “ Sem base legal, as empresas não estão mais autorizadas a detectar proativamente o abuso sexual infantil em comunicações privadas », lembrou o porta-voz Guillaume Mercier em comunicado enviado a Político. Resumindo: qualquer digitalização voluntária viola agora a legislação europeia.

Quatro gigantes não esperaram para responder. Microsoft, Google, Meta e Snapchat publicaram um comunicado de imprensa conjunto em 3 de abril. reafirmam o seu compromisso de proteger as crianças e preservar a privacidade “. Seu método é baseado em correspondência de hash : cada conteúdo é comparado a um banco de dados de impressões digitais de materiais de abuso infantil já identificados. As empresas afirmam que o sistema garante detecção precisa sem leitura do conteúdo das mensagens.

Catherine De Bolle, diretora da Europol, publicou um comunicado de imprensa denunciando a inação do legislador. O conteúdo pedocriminal está aumentando. A aplicação da lei perde uma ferramenta considerada essencial. Por seu lado, 247 organizações de protecção das crianças assinaram uma carta aberta alertando para o declínio da protecção dos menores na Europa.

Um precedente perigoso, seja qual for o campo

Por um lado, um direito fundamental à confidencialidade das comunicações, consagrado na Carta Europeia. Por outro lado, a protecção das crianças contra crimes cuja difusão está a explodir com a tecnologia digital. Um dilema que vai além da questão técnica da correspondência de hash. O que está em jogo aqui é um precedente político. As empresas privadas mantêm uma prática de vigilância que o legislador se recusou a regulamentar. Eles invocam a proteção das crianças. Os críticos respondem (com razão) que a boa vontade de hoje pode tornar-se a ferramenta de controlo de amanhã.

Os falsos positivos também alimentam o debate. Os usuários foram acusados ​​injustamente com base em detecções automatizadas defeituosas. As empresas garantem que suas ferramentas sejam confiáveis. As associações que defendem as liberdades digitais contestam esta afirmação.

A saga ChatControl em 17 episódios

A Comissão Europeia quer backdoors nas mensagens contra a pornografia infantil (2022)

Obrigar a detecção de pornografia infantil seria tão ineficaz quanto prejudicial, segundo especialistas (2023)

Publicidade microdirecionada: para defender o seu projeto de regulamento sobre a proteção de menores (CSAR), a Comissão Europeia foi longe demais? (2023)

Digitalização de mensagens encriptadas para combater a pornografia infantil: lobbies industriais por detrás da futura legislação europeia?

Pornografia infantil: as PME digitais europeias estão preocupadas com uma futura lei europeia que exigiria que digitalizassem as conversas (2024)

Thorn, a solução preferida de Bruxelas para detectar pornografia infantil, não seria confiável (2024)

WhatsApp: suas conversas privadas serão em breve espionadas pela Europa? (clique com o botão direito no vídeo)

A Europa está a suspender o seu plano de exigir mensagens encriptadas para digitalizar as nossas conversas online (2024)

Ainda poderemos ter conversas privadas se a lei impor “portas dos fundos” ao WhatsApp, Telegram ou Signal?

O sistema “Chat Control” que marcaria o fim das conversas privadas na Europa sofre uma grande deserção

O projeto de lei para espionar suas conversas privadas do WhatsApp volta à mesa, a oposição se mobiliza

Chatcontrol: A Dinamarca está prestes a colocar o polêmico regulamento de volta na mesa de discussão? (

ChatControl: A Dinamarca finalmente renuncia à imposição da verificação de nossas conversas em mensagens criptografadas (WhatsApp, Signal)

Controle de conversas na Internet: a nova versão do Chatcontrol ainda teria problema

WhatsApp que continua pesquisando “voluntariamente” pornografia infantil em suas mensagens? Esta comissão do Parlamento Europeu diz que não

Pornografia infantil: o Parlamento Europeu quer limitar a vigilância das nossas conversas online

O Gafam que escaneia nossas conversas online? Acabou a partir de sábado, 4 de abril

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

Político

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *