euA ascensão meteórica da inteligência artificial (IA) faz dela uma grande revolução tecnológica, como a máquina a vapor no século XIX ou a electricidade e as tecnologias de informação no século XX. No entanto, ao contrário destas revoluções anteriores, todas baseadas num forte crescimento dos fluxos energéticos, a da IA ​​terá de prevalecer num contexto onde a redução das emissões de gases com efeito de estufa é agora uma prioridade global.

No entanto, neste momento, a explosão na utilização da IA ​​é acompanhada por um aumento rápido e preocupante do consumo de energia. Ainda mais preocupante, um estudo publicado em Setembro pelo Centro de Investigação de Política Económica sugere que nos Estados Unidos a adaptação insuficiente da infra-estrutura eléctrica levou a uma maior dependência de combustíveis fósseis para alimentar os centros de dados.

Leia também a análise | Artigo reservado para nossos assinantes A IA que consome muita energia pode levar à escassez de energia nos Estados Unidos

Os grandes modelos de linguagem (LLMs), as origens da chamada IA ​​generativa, contribuem desproporcionalmente para o aumento do consumo de energia: treinar um único modelo de última geração pode exigir vários gigawatts-hora, e cada consulta consome até dez vezes mais eletricidade do que uma pesquisa no Google. E isto nem tem em conta o facto de os LLM ainda estarem numa fase inicial de desenvolvimento: por enquanto, a corrida pelo domínio tecnológico está a empurrar os campeões mundiais para construir modelos cada vez mais complexos, com o poder computacional a duplicar a cada cem dias.

Deveríamos, portanto, desistir de toda esperança de conciliar a revolução da IA ​​com os nossos objectivos ambientais? Nossa resposta é não. Em primeiro lugar, durante a década de 2010, o consumo de energia ligado aos centros de dados foi contido graças a ganhos espectaculares de eficiência energética em servidores e infra-estruturas.

A dinâmica observada até hoje parece assim poder ser revertida pela adoção de um quadro institucional ambicioso, que permita promover a eficiência energética e o dimensionamento fundamentado dos modelos de IA, de acordo com as utilizações reais. As pesquisas iniciais sobre o assunto, incluindo um estudo da UNESCO publicado em 2025, mostram que a compressão de modelos resulta em economias de energia consideráveis; em particular, a adopção de modelos de linguagem pequena (SLM), para aplicações específicas, reduziria o consumo de energia por um factor de 10, mantendo ao mesmo tempo um elevado nível de precisão.

Você ainda tem 59,42% deste artigo para ler. O restante é reservado aos assinantes.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *