Eliezer Yudkowsky (esquerda), em 2023, e Nate Soares (direita), em 2025

Eliezer Yudkowsky é um dos primeiros condenados, um daqueles “cavaleiros do Apocalipse” que alertaram sobre os perigos existenciais da inteligência artificial (IA) antes mesmo de ela existir. Foi em 2000, há um quarto de século, quando tinha apenas vinte anos, que este natural de Chicago, educado na ortodoxia judaica, mas que se tornou ateu, criou o Machine Intelligence Research Institute (MIRI) em Atlanta, depois em Berkeley, Califórnia, para trabalhar em IA.

Leia também | Artigo reservado para nossos assinantes “O Vale do Silício entendeu antes de qualquer outra pessoa que a guerra do futuro seria uma guerra de software”

Dotado de um quociente de inteligência extraordinário, o jovem, que abandonou a escola por motivos de saúde, optou por faltar aos estudos universitários. Ele é apaixonado pelo momento em que a máquina ultrapassará o cérebro humano. Mas, muito rapidamente, ele acredita detectar um problema: o não alinhamento dos valores da IA ​​com os dos humanos. E decide focar sua pesquisa no tema “IA amigável”.

Entre as ideias exploradas, Eliezer Yudkowsky populariza, junto ao filósofo de Oxford Nick Bostrom, autor, em 2014, de Superinteligência (publicado pela Dunod em 2017), conceitos como “ortogonalidade” – a noção de que inteligência e benevolência são características distintas, e um sistema de IA não se tornaria automaticamente mais amigável à medida que se torna mais inteligente – e “convergência instrumental”, a ideia de que um sistema de IA poderoso e orientado para objetivos poderia adotar estratégias que, em última análise, prejudicam os seres humanos.

Você ainda tem 72,45% deste artigo para ler. O restante é reservado aos assinantes.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *