O algoritmo de pontuação utilizado pela CAF é discriminatório? Enquanto ao apelo ao Conselho de Estado formado por 15 organizações se juntaram outras 10 associações ou sindicatos, a revolta pode agora contar com um parecer do Defensor dos Direitos. A autoridade independente considera que a ferramenta utilizada pela CAF “parece produzir um controlo excessivo das populações mais precárias”.

Os algoritmos utilizados pela FCA para detectar fraudes monitoram desproporcionalmente os mais vulneráveis? A questão é colocada, desde outubro passado, ao Conselho de Estado, o mais alto tribunal administrativo. No ano passado, quinze associações, incluindo a Quadrature du Net, a Amnistia Internacional França, a Liga dos Direitos Humanos e o Sindicato dos Advogados Franceses, atacaram um algoritmo utilizado pela CAF (hoje CNAF, Fundo Nacional de Abono de Família) perante o mais alto tribunal administrativo. A administração responsável pelos abonos de família utiliza esta ferramenta para decidir qual o beneficiário a controlar, no âmbito da sua luta contra a fraude social.

Leia também: Essas associações querem remover o algoritmo de pontuação da CAF… e as demais

Desde então, La bronca juntou-se a outras dez associações, coletivos e sindicatos, anunciou Quadrature du Net em seu site, terça-feira, 20 de janeiro. Entre eles estão Feministas Contra o Assédio Cibernético, o Movimento de Mães Solteiras, os Direitos Digitais Europeus (EDRi), AlgorithmWatch, e a CGT e Solidaires. Existem agora 25 organizações francesas e europeias que pedem a proibição do algoritmo.

Um grande aliado: o Defensor dos Direitos

Na sua bronca contra esta ferramenta acusada de controlar excessivamente os mais precários, associações, sindicatos e coletivos encontraram um grande aliado: o Defensor dos Direitos, ficamos sabendo na terça-feira, 20 de janeiro. Mediapart. Esta autoridade administrativa independente, responsável pela defesa dos nossos direitos e liberdades em diversos sectores, foi chamada durante o procedimento.

Num parecer de outubro de 2025 que não foi publicado, mas que foi consultado pelos nossos colegas, o Defensor dos Direitos apoia as associações. Para este último, citado pela mídia investigativa, o algoritmo “parece produzir um controlo excessivo das populações mais precárias e, portanto, constitui uma diferença de tratamento baseada numa vulnerabilidade económica particular. Parece estabelecida uma presunção de discriminação indirecta”.

Num relatório de 2024, a mesma autoridade já se mostrava preocupada”. os riscos que a “algoritmização” dos serviços públicos representa para os direitos dos utilizadoresé serviços públicos “. Recorde-se que o assunto está em discussão desde o final de 2022. Nesse ano, uma investigação de dezembro de 2022 da Unidade de Investigação da Rádio France-Franceinfo revelou que a CNAF classificava os seus beneficiários de acordo com o risco de fraude.

Leia também: Fraude do abono de família: a CAF utiliza algoritmos que visam os mais precários, segundo esta associação

Em novembro passado, a Quadrature du Net teve acesso a duas versões anteriores do código-fonte da Caisse. A associação considerou que a ferramenta visava os mais precários. Quanto menor o rendimento de um beneficiário (como o RSA), maior a probabilidade de ele cair na precariedade (após uma perda de emprego ou uma mudança de situação) e maior a probabilidade de este último ser controlado, explicou-nos a associação de direitos digitais.

Leia também: O uso de IA pela France Travail? Globalmente positivo mas “aperfeiçoável”, segundo o Tribunal de Contas

Para as associações, é um “ discriminação realizada por este algoritmo contra beneficiários que já são vulneráveis ​​ao longo da sua vida “. “ Ao assimilar a precariedade e a suspeita de fraude, este algoritmo participa numa política de estigmatização e maus-tratos institucionais aos mais desfavorecidos », lamentaram. Na verdade, uma verificação está longe de ser trivial: pode incluir, além da visita domiciliária, pedidos de acesso a documentos pessoais, interrogatórios de vizinhos e suspensão de direitos.

CAF mais transparente, mas…

Por sua vez, a CAF apresenta este algoritmo como uma simples ferramenta de tomada de decisão. O Diretor-Geral do Fundo, Nicolas Grivel, havia especificado, numa entrevista concedida à AFP dois anos antes, que o principal objetivo do algoritmo era identificar os beneficiários com maior probabilidade de cometer erros na sua declaração. Não seria discriminatório e não visaria necessariamente as pessoas mais pobres, mas sim aquelas cujos rendimentos variam, explicou. Um ano depois, o mesmo gestor acrescentou, novamente aos nossos colegas, que a ferramenta tinha como objetivo identificar os beneficiários com maior probabilidade de cometerem erros na sua declaração, visando “ pagamentos em atraso significativos e repetidos “.

E em Janeiro de 2026, a CNAF foi mais longe. Em UM Comunicado de imprensa intitulado ” Controles Caf: um algoritmo novo e mais transparente “, explica a administração usando desde janeiro de 2026” uma nova versão deste algoritmo, revisado de forma mais ética e transparente “. A CNAF acrescenta que criou uma comissão de ética “ identificar riscos e formas de mitigá-los, especialmente em questões sensíveis relacionadas com as liberdades públicas “. Ela também publicou “ o código-fonte do algoritmo DMDE 2026, a fim de permitir que os interessados ​​entendam melhor a lógica geral da ferramenta e lançar luz sobre o debate », uma estreia.

Até agora, o Fundo do Abono de Família recusou-se a fornecer acesso ao seu código-fonte, apesar dos repetidos pedidos de algumas associações. Algumas variáveis potencialmente sensível” do algoritmo anterior, como “ nacionalidade, sexo, endereço ou bairro, comportamento on-linee histórico de controle » « foram explicitamente excluídos para limitar os riscos de discriminação », Detalha o CNAF – uma precisão que mostra até que ponto a ferramenta foi capaz de utilizar dados particularmente sensíveis.

Mas para a Quadratura da Rede, “ a transparência por si só não é suficiente “. euAs 25 associações ainda aguardam firmemente a decisão do Conselho de Estado. Especialmente porque pedem ao mais alto tribunal administrativo francês que remeta a questão ao Tribunal de Justiça da União Europeia (TJUE) para solicitar o seu parecer (através de uma decisão prejudicial).

A apoiar este pedido está uma decisão do TJUE de dezembro de 2023, segundo a qual é proibido qualquer tipo de classificação automatizada, se tiver um impacto significativo na vida das pessoas, ao abrigo do GDPR, o regulamento europeu sobre dados pessoais. Em outras palavras, qualquer tomada de decisão que utilize sistemas de classificação utilizando dados pessoais é ilegal. Segundo a Quadrature du Net, teremos de esperar vários meses para saber a posição do Conselho de Estado. A próxima etapa, a audiência pública, deverá ocorrer na próxima primavera.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *