Enquanto os modelos generativos de inteligência artificial ocupam cada vez mais espaço na nossa vida quotidiana, o gestor de IA da Microsoft tenta acalmar o entusiasmo antropomórfico que toma conta de Silicon Valley.

Mustafa Suleyman, líder de IA na Microsoft // Crédito: Christopher Wilson – Wikipedia Commons (CC BY-SA 4.0)

As máquinas têm sensibilidade própria? Se a pergunta for pelo menos tão antiga quanto Philip K. Dick, a resposta é firme e definitiva ” Não“, segundo a Microsoft. Questionado pela mídia CNBCo chefe do ramo de IA da Microsoft tentou acabar com os devaneios filosófico-técnicos da era da IA.

Interessado em informar o público sobre os riscos associados a esta percepção errada da aprendizagem automática, Mustafa Suleyman procurou redireccionar o debate sobre a IA para questões mais férteis.

Uma ideia “absurda”

Nossa percepção da dor é algo que nos deixa tristes e nos faz sentir mal. IA não sente tristeza ao sentir “dor”“, explica o executivo da Microsoft, “sabemos disso, pois podemos ver como o modelo funciona“, afirma. No máximo, essas redes neurais podem “criar percepção, uma aparência imaginária de autoexperiência e consciência», Continua Mustafa Suleyman.

Segundo ele, portanto, a busca por uma IA “consciente» não é um campo de pesquisa «que as pessoas deveriam cavar“, chegando mesmo a descrever a ideia como”absurdo“. “Se você fizer as perguntas erradas, acabará com respostas erradas», resume o gestor. A sensibilidade da IA ​​deve ser separada da inteligência dos modelos segundo Mustafa Suleyman “Eles não são e nunca serão», conclui o gestor sobre a questão da consciência.

Uma ficção habilmente mantida

Se a questão surgiu tanto nos últimos anos, é porque o progresso dos principais modelos de linguagem, como o ChatGPT, prontamente deixou a impressão de que por trás da tela havia um ser real de carne e silício onde havia algoritmos, 1s e 0s. Esta perceção da IA ​​como uma entidade consciente também foi alimentada por líderes da indústria, como Blake Lemoine, engenheiro da Google, ou, mais timidamente, por personalidades como Idriss Aberkane.

Para ir mais longe
Uma IA teria levado um adolescente ao suicídio fingindo ter emoções

Um dos (muitos) problemas por trás dessa ideia é que, ao manter a imprecisão sobre o que a IA poderia “sentir” ou não, os usuários podem se apegar a robôs conversacionais, com consequências, às vezes, dramáticas.


Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *