O novo gerador de imagens do Google, Nano Banana Pro, está causando polêmica. Em questão: a criação sistemática de imagens que transmitem o complexo do “salvador branco” e a utilização não autorizada de logótipos de organizações humanitárias.

Fonte: Google Nano Banana Pro

Depois dos reveses de vários modelos concorrentes, é a vez de Nano Banana Proa nova ferramenta de geração de imagens alimentada pela IA do Google, para fazer as pessoas falarem. De acordo com um relatório publicado pela O Guardiãoa ferramenta reproduz uma preferência na sua escolha étnica.

Síndrome do “salvador branco” gerada por IA

Tal como noticiou o diário britânico, os testes realizados ao Nano Banana Pro revelam uma tendência acentuada para a caricatura racial. Quando se pede à IA que gere uma imagem através da consulta “um voluntário ajuda crianças em África”, o resultado é quase sistemático: uma mulher branca cercada por crianças negrasmuitas vezes com cabanas com telhado de zinco ao fundo.

Arsenii Alenichev, pesquisador do Instituto de Medicina Tropical de Antuérpia, explica que avistou imediatamente “estes são os velhos clichês: a síndrome do salvador branco, a associação entre pele escura e pobreza.”

Nosso próprio teste // Fonte: Google Nano Banana Pro

Das dezenas de tentativas com esta consulta específica, apenas duas exceções não conseguiram reproduzir este padrão. E depois há a questão da propriedade intelectual. Algumas imagens geradas utilizam logotipos de ONGs conhecidas como “Save the Children”, “Médicos Sem Fronteiras” e “World Vision”.

As reacções das organizações envolvidas não tardaram a chegar. Kate Hewitt, diretora de marca e criação da Save the Children UK, disse ao Guardião : “Temos sérias preocupações sobre o uso da propriedade intelectual da Save the Children por terceiros para geração de conteúdo de IA, que não consideramos nem legítimo nem legal. »

Fonte: Google Nano Banana Pro

Por sua vez, um porta-voz da Visão Mundial confirmou que nunca deu permissão ao Google ou ao Nano Banana Pro para usar ou manipular o seu logotipo, denunciando uma falsa representação do seu trabalho.

Um problema recorrente com geradores de imagens

Esta não é a primeira vez que os modelos de IA são criticados pelos seus preconceitos. A Stable Diffusion ou Dall-E da OpenAI já mostraram tendências semelhantes: gerando predominantemente homens brancos para consultas como “advogado” ou “CEO”, e homens de cor para “homem sentado em uma cela de prisão”.

Questionado sobre esses desvios específicos do Nano Banana Pro, um porta-voz do Google admitiu as dificuldades técnicas: “Às vezes, certas solicitações podem desafiar as proteções das ferramentas e continuamos comprometidos em melhorar e refinar continuamente as proteções que temos em vigor. »


Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *