

Apesar de parecer que tudo na tecnologia generativa surge do nada, cada interação com um chatbot ou outro sistema de IA passa por cabos e data centers — enormes galpões cheios de servidores que processam bilhões (ou até trilhões) de parâmetros para gerar as respostas.
Esse processamento consome eletricidade, assim como os sistemas de suporte, como ventiladores e ar-condicionado para resfriar os servidores. Além de contas de energia altas, o resultado são emissões de carbono que contribuem para o aquecimento global. A geração de eletricidade e o resfriamento também consomem grandes volumes de água, usada na produção de energia e em sistemas de dissipação de calor.
Com o crescimento da IA generativa em 2023, ambientalistas alertaram sobre seu impacto nos recursos. O debate sobre os custos versus os benefícios intangíveis, como aumento de produtividade e acesso à informação, está cheio de divisões ideológicas sobre o propósito e valor da tecnologia.
Defensores afirmam que essa revolução da IA é um bem para a sociedade, trazendo-nos mais perto da inteligência artificial geral, uma tecnologia potencialmente transformadora, comparável à imprensa ou à internet.
Generative AI “acelera qualquer coisa que você queira fazer”, diz Rick Stevens, diretor associado do Laboratório Nacional de Argonne e cientista da Universidade de Chicago. Ele destaca ganhos de produtividade em empresas, melhorias na educação e benefícios na saúde e planejamento urbano, entre outros exemplos.
Agora, especialistas de áreas como economia, engenharia da computação e sustentabilidade estão avaliando o real peso dessa tecnologia.
Quanto de energia a IA consome?
Ferramentas como ChatGPT são grandes consumidoras de energia, afirma Alex de Vries, fundador do Digiconomist e pesquisador na Universidade de Amsterdã. Modelos maiores, com mais parâmetros, exigem mais recursos computacionais, consumindo mais energia.
Treinar um único modelo usa mais energia que 100 residências dos EUA por ano. Consultar o ChatGPT consome 10 vezes mais energia do que uma busca online padrão, segundo a Agência Internacional de Energia. Compor um e-mail com um chatbot pode consumir sete vezes a energia necessária para carregar completamente um iPhone.
Quando milhões de pessoas usam chatbots diariamente, o consumo se acumula. Em 2023, estimou-se que o setor de IA poderia consumir anualmente tanta energia quanto os Países Baixos. Além disso, 10 a 50 consultas ao ChatGPT consomem meio litro de água, e análises recentes sugerem que esse número pode ser subestimado em quatro vezes.
Alguns engenheiros questionam esses números, mas a falta de transparência das empresas de tecnologia torna difícil obter avaliações precisas do impacto ambiental da IA. Tendências, no entanto, indicam que a demanda energética está aumentando, com o crescimento de data centers superando os ganhos de eficiência.
Um caminho mais sustentável para a IA
A decisão não precisa ser entre parar o desenvolvimento da IA ou permitir seu uso irrestrito. Políticas que exijam transparência sobre o consumo energético da IA e regulamentem seu uso podem mitigar riscos e maximizar benefícios.
Medidas como treinar modelos em momentos de alta disponibilidade de energia limpa ou usar sistemas de resfriamento mais eficientes podem reduzir impactos. Porém, cada escolha envolve compensações, e é essencial explorar essas opções para evitar danos maiores ao meio ambiente.
A tecnologia sozinha não será nossa salvação, alerta Andrew Chien, cientista da Universidade de Chicago. Por isso, devemos agir com responsabilidade, equilibrando inovação e sustentabilidade.
Fonte: sciencenews.org