Espera-se que o crescimento explosivo de data centers de IA aumente as emissões de gases de efeito estufa. Pesquisadores agora buscam soluções para reduzir esses danos ambientais.

“Estamos em um caminho em que os efeitos das mudanças climáticas não serão totalmente conhecidos até que seja tarde demais para fazer algo a respeito”, afirma Jennifer Turliuk, MBA '25, que trabalha para ajudar formuladores de políticas, cientistas e empresas a considerar os custos e benefícios multifacetados da IA generativa. “Esta é uma oportunidade única para inovar e tornar os sistemas de IA menos intensivos em carbono.” Crédito: iStock
Espera-se que o crescimento explosivo de data centers de IA aumente as emissões de gases de efeito estufa. Pesquisadores agora buscam soluções para reduzir esses danos ambientais.
Espera-se que as demandas de energia da IA generativa continuem aumentando drasticamente na próxima década.
Por exemplo, um relatório de abril de 2025 da Agência Internacional de Energia prevê que a demanda global de eletricidade de data centers , que abrigam a infraestrutura computacional para treinar e implementar modelos de IA, mais que dobrará até 2030, para cerca de 945 terawatts-hora. Embora nem todas as operações realizadas em um data center sejam relacionadas à IA, esse valor total é ligeiramente superior ao consumo de energia do Japão.
Além disso, uma análise de agosto de 2025 da Goldman Sachs Research prevê que cerca de 60% da crescente demanda por eletricidade dos data centers será atendida pela queima de combustíveis fósseis, aumentando as emissões globais de carbono em cerca de 220 milhões de toneladas . Em comparação, dirigir um carro movido a gasolina por 8.000 quilômetros produz cerca de 1 tonelada de dióxido de carbono.
Essas estatísticas são alarmantes, mas, ao mesmo tempo, cientistas e engenheiros do MIT e de todo o mundo estão estudando inovações e intervenções para mitigar a crescente pegada de carbono da IA, desde aumentar a eficiência dos algoritmos até repensar o design dos data centers.
Considerando as emissões de carbono
As discussões sobre a redução da pegada de carbono da IA generativa geralmente se concentram no "carbono operacional" — as emissões usadas pelos poderosos processadores, conhecidos como GPUs, dentro de um data center. Muitas vezes, ignora-se o "carbono incorporado", que são as emissões geradas pela construção do data center, afirma Vijay Gadepally, cientista sênior do Laboratório Lincoln do MIT, que lidera projetos de pesquisa no Centro de Supercomputação do Laboratório Lincoln.
Construir e reformar um data center, construído com toneladas de aço e concreto e repleto de unidades de ar-condicionado, hardware de computação e quilômetros de cabos, consome uma quantidade enorme de carbono. Aliás, o impacto ambiental da construção de data centers é um dos motivos pelos quais empresas como a Meta e o Google estão explorando materiais de construção mais sustentáveis. (O custo é outro fator.)
Além disso, os data centers são edifícios enormes — o maior do mundo, o Parque de Informações da China Telecomm-Mongólia Interior, ocupa cerca de 10 milhões de pés quadrados — com cerca de 10 a 50 vezes a densidade energética de um edifício de escritórios normal, acrescenta Gadepally.
“O lado operacional é apenas parte da história. Algumas coisas em que estamos trabalhando para reduzir as emissões operacionais podem contribuir para a redução do carbono incorporado também, mas precisamos fazer mais nesse sentido no futuro”, afirma.
Redução das emissões operacionais de carbono
Quando se trata de reduzir as emissões operacionais de carbono em data centers de IA, há muitos paralelos com medidas de economia de energia em residências. Por exemplo, podemos simplesmente apagar as luzes.
“Mesmo que você tenha as piores lâmpadas em casa em termos de eficiência, desligá-las ou diminuí-las sempre consumirá menos energia do que deixá-las acesas no máximo”, diz Gadepally.
Da mesma forma, uma pesquisa do Supercomputing Center mostrou que “reduzir” o consumo das GPUs em um data center para que consumam cerca de três décimos da energia tem impactos mínimos no desempenho dos modelos de IA, além de tornar o hardware mais fácil de resfriar.
Outra estratégia é usar hardware de computação que consuma menos energia.
Cargas de trabalho exigentes de IA generativa, como o treinamento de novos modelos de raciocínio como o GPT-5, geralmente exigem muitas GPUs trabalhando simultaneamente. A análise do Goldman Sachs estima que um sistema de última geração poderá em breve ter até 576 GPUs conectadas operando simultaneamente.
Mas os engenheiros às vezes podem alcançar resultados semelhantes reduzindo a precisão do hardware de computação, talvez mudando para processadores menos potentes que foram ajustados para lidar com uma carga de trabalho específica de IA.
Há também medidas que aumentam a eficiência do treinamento de modelos de aprendizado profundo que consomem muita energia antes de serem implantados.
O grupo de Gadepally descobriu que cerca de metade da energia usada no treinamento de um modelo de IA é gasta para obter os últimos 2 ou 3 pontos percentuais de precisão. Interromper o processo de treinamento precocemente pode economizar bastante dessa energia.
“Pode haver casos em que 70% de precisão seja suficiente para uma aplicação específica, como um sistema de recomendação para comércio eletrônico”, diz ele.
Os pesquisadores também podem tirar proveito de medidas de aumento de eficiência.
Por exemplo, um pós-doutorado no Centro de Supercomputação percebeu que o grupo poderia executar mil simulações durante o processo de treinamento para escolher os dois ou três melhores modelos de IA para seu projeto.
Ao construir uma ferramenta que permitiu evitar cerca de 80% desses ciclos de computação desperdiçados, eles reduziram drasticamente as demandas de energia do treinamento sem reduzir a precisão do modelo, diz Gadepally.
Aproveitando melhorias de eficiência
A inovação constante em hardware de computação, como conjuntos mais densos de transistores em chips semicondutores, ainda está permitindo melhorias drásticas na eficiência energética dos modelos de IA.
Embora as melhorias na eficiência energética tenham diminuído para a maioria dos chips desde 2005, a quantidade de computação que as GPUs podem fazer por joule de energia tem melhorado de 50 a 60 por cento a cada ano, diz Neil Thompson, diretor do Projeto de Pesquisa FutureTech no Laboratório de Ciência da Computação e Inteligência Artificial do MIT e pesquisador principal da Iniciativa sobre Economia Digital do MIT.
“A tendência ainda em andamento da 'Lei de Moore' de colocar cada vez mais transistores no chip ainda é importante para muitos desses sistemas de IA, já que executar operações em paralelo ainda é muito valioso para melhorar a eficiência”, diz Thomspon.
Ainda mais significativo, a pesquisa de seu grupo indica que os ganhos de eficiência de novas arquiteturas de modelos que podem resolver problemas complexos mais rapidamente, consumindo menos energia para atingir os mesmos resultados ou melhores, estão dobrando a cada oito ou nove meses.
Thompson cunhou o termo " negaflop " para descrever esse efeito. Da mesma forma que um "negawatt" representa a eletricidade economizada devido a medidas de economia de energia, um "negaflop" é uma operação computacional que não precisa ser realizada devido a melhorias algorítmicas.
Isso pode incluir coisas como “ retirar ” componentes desnecessários de uma rede neural ou empregar técnicas de compressão que permitam aos usuários fazer mais com menos computação.
"Se você precisar usar um modelo realmente poderoso hoje para concluir sua tarefa, em poucos anos, poderá usar um modelo significativamente menor para fazer a mesma coisa, o que acarretaria um impacto ambiental muito menor. Tornar esses modelos mais eficientes é a coisa mais importante que você pode fazer para reduzir os custos ambientais da IA", afirma Thompson.
Maximizando a economia de energia
Embora a redução do uso geral de energia dos algoritmos de IA e do hardware de computação reduza as emissões de gases de efeito estufa, nem toda energia é igual, acrescenta Gadepally.
“A quantidade de emissões de carbono em 1 quilowatt-hora varia significativamente, mesmo durante o dia, bem como ao longo do mês e do ano”, diz ele.
Os engenheiros podem aproveitar essas variações, aproveitando a flexibilidade das cargas de trabalho de IA e das operações do data center para maximizar a redução de emissões. Por exemplo, algumas cargas de trabalho de IA generativa não precisam ser executadas integralmente ao mesmo tempo.
Dividir as operações de computação para que algumas sejam realizadas mais tarde, quando a maior parte da eletricidade fornecida à rede é proveniente de fontes renováveis, como solar e eólica, pode contribuir muito para reduzir a pegada de carbono de um data center, afirma Deepjyoti Deka, cientista pesquisador da Iniciativa de Energia do MIT.
Deka e sua equipe também estão estudando data centers “mais inteligentes”, onde as cargas de trabalho de IA de várias empresas que usam o mesmo equipamento de computação são ajustadas de forma flexível para melhorar a eficiência energética.
“Ao analisar o sistema como um todo, nossa esperança é minimizar o uso de energia, bem como a dependência de combustíveis fósseis, mantendo, ao mesmo tempo, os padrões de confiabilidade para empresas e usuários de IA”, diz Deka.
Ele e outros no MITEI estão construindo um modelo de flexibilidade para um data center que considera as diferentes demandas energéticas do treinamento de um modelo de aprendizado profundo em comparação com a implantação desse modelo. A esperança é descobrir as melhores estratégias para programar e otimizar as operações de computação, a fim de melhorar a eficiência energética.
Os pesquisadores também estão explorando o uso de unidades de armazenamento de energia de longa duração em data centers, que armazenam o excesso de energia para momentos em que ela é necessária.
Com esses sistemas implementados, um data center pode usar energia armazenada gerada por fontes renováveis durante um período de alta demanda ou evitar o uso de geradores de reserva a diesel se houver flutuações na rede.
“O armazenamento de energia de longa duração pode mudar o jogo aqui porque podemos projetar operações que realmente mudam a combinação de emissões do sistema para depender mais de energia renovável”, diz Deka.
Além disso, pesquisadores do MIT e da Universidade de Princeton estão desenvolvendo uma ferramenta de software para planejamento de investimentos no setor de energia, chamada GenX , que pode ser usada para ajudar empresas a determinar o local ideal para localizar um data center para minimizar impactos ambientais e custos.
A localização pode ter um grande impacto na redução da pegada de carbono de um data center. Por exemplo, a Meta opera um data center em Lulea , uma cidade no litoral norte da Suécia, onde temperaturas mais baixas reduzem a quantidade de eletricidade necessária para resfriar o hardware de computação.
Pensando fora da caixa (muito além), alguns governos estão até explorando a construção de data centers na Lua , onde eles poderiam ser operados com quase toda energia renovável.
Soluções baseadas em IA
Atualmente, a expansão da geração de energia renovável aqui na Terra não está acompanhando o rápido crescimento da IA, o que é um grande obstáculo para reduzir sua pegada de carbono, diz Jennifer Turliuk MBA '25, palestrante de curta duração, ex-bolsista Sloan e ex-líder de prática de IA climática e energética no Martin Trust Center for MIT Entrepreneurship.
Os processos de revisão locais, estaduais e federais necessários para novos projetos de energia renovável podem levar anos.
Pesquisadores do MIT e de outros lugares estão explorando o uso de IA para acelerar o processo de conexão de novos sistemas de energia renovável à rede elétrica.
Por exemplo, um modelo de IA generativa poderia agilizar estudos de interconexão que determinam como um novo projeto impactará a rede elétrica, uma etapa que geralmente leva anos para ser concluída.
E quando se trata de acelerar o desenvolvimento e a implementação de tecnologias de energia limpa , a IA pode desempenhar um papel importante.
“O aprendizado de máquina é ótimo para lidar com situações complexas, e a rede elétrica é considerada uma das maiores e mais complexas máquinas do mundo”, acrescenta Turliuk.
Por exemplo, a IA poderia ajudar a otimizar a previsão da geração de energia solar e eólica ou identificar locais ideais para novas instalações.
Ele também pode ser usado para realizar manutenção preditiva e detecção de falhas em painéis solares ou outras infraestruturas de energia verde, ou para monitorar a capacidade dos fios de transmissão para maximizar a eficiência.
Ao ajudar os pesquisadores a coletar e analisar grandes quantidades de dados, a IA também pode informar intervenções políticas direcionadas, visando obter o maior "retorno sobre o investimento" em áreas como energia renovável, diz Turliuk.
Para ajudar formuladores de políticas, cientistas e empresas a considerar os custos e benefícios multifacetados dos sistemas de IA, ela e seus colaboradores desenvolveram o Net Climate Impact Score.
A pontuação é uma estrutura que pode ser usada para ajudar a determinar o impacto climático líquido de projetos de IA, considerando emissões e outros custos ambientais, juntamente com potenciais benefícios ambientais no futuro.
No final das contas, as soluções mais eficazes provavelmente resultarão de colaborações entre empresas, reguladores e pesquisadores, com a academia liderando o caminho, acrescenta Turliuk.
“Cada dia conta. Estamos em um caminho em que os efeitos das mudanças climáticas não serão totalmente conhecidos até que seja tarde demais para fazer algo a respeito. Esta é uma oportunidade única para inovar e tornar os sistemas de IA menos intensivos em carbono”, afirma.