Eliezer Yudkowsky é um dos primeiros condenados, um daqueles “cavaleiros do Apocalipse” que alertaram sobre os perigos existenciais da inteligência artificial (IA) antes mesmo de ela existir. Foi em 2000, há um quarto de século, quando tinha apenas vinte anos, que este natural de Chicago, educado na ortodoxia judaica, mas que se tornou ateu, criou o Machine Intelligence Research Institute (MIRI) em Atlanta, depois em Berkeley, Califórnia, para trabalhar em IA.
Dotado de um quociente de inteligência extraordinário, o jovem, que abandonou a escola por motivos de saúde, optou por faltar aos estudos universitários. Ele é apaixonado pelo momento em que a máquina ultrapassará o cérebro humano. Mas, muito rapidamente, ele acredita detectar um problema: o não alinhamento dos valores da IA com os dos humanos. E decide focar sua pesquisa no tema “IA amigável”.
Entre as ideias exploradas, Eliezer Yudkowsky populariza, junto ao filósofo de Oxford Nick Bostrom, autor, em 2014, de Superinteligência (publicado pela Dunod em 2017), conceitos como “ortogonalidade” – a noção de que inteligência e benevolência são características distintas, e um sistema de IA não se tornaria automaticamente mais amigável à medida que se torna mais inteligente – e “convergência instrumental”, a ideia de que um sistema de IA poderoso e orientado para objetivos poderia adotar estratégias que, em última análise, prejudicam os seres humanos.
Você ainda tem 72,45% deste artigo para ler. O restante é reservado aos assinantes.