O apetite energético da indústria da computação é notoriamente voraz. Atualmente, isto faz com que a indústria produza entre 2,1 e 3,9 por cento de todas as emissões globais de carbono. E isso foi antes dos verdadeiros impactos...
O apetite energético da indústria da computação é notoriamente voraz. Atualmente, isto faz com que a indústria produza entre 2,1 e 3,9 por cento de todas as emissões globais de carbono. E isso foi antes dos verdadeiros impactos das novas aplicações que consomem energia, como a IA generativa (inteligência artificial) e os espaços comuns virtuais actualizados, terem surgido.
A National Science Foundation (NSF) anunciou recentemente uma nova iniciativa de investigação multi-institucional de 12 milhões de dólares ao longo dos próximos cinco anos para aprofundar este tópico, apelando a um repensar da infraestrutura para a tecnologia da informação e comunicação (TIC), e abrindo o caminho para a computação sustentável. Coliderada por David Brooks, de Harvard, e Benjamin Lee, da Universidade da Pensilvânia, a iniciativa é chamada NSF Expeditions in Computing. O seu objectivo global é admiravelmente elevado: reduzir a pegada de carbono da computação em 45% até 2030.
Adam Wierman , da Caltech , professor Carl F Braun de Ciências da Computação e Matemática e diretor de Ciência e Tecnologia da Informação, faz parte da nova equipe da NSF Expeditions. Na última década, ele liderou o design de algoritmos para tornar os data centers mais sustentáveis, e seu grupo trabalhou com a indústria para melhorar os padrões de medição e relatórios dos custos de carbono da computação.
Recentemente conversamos com ele sobre o boom da IA, como os data centers poderiam realmente ajudar a rede elétrica, a nova iniciativa NSF Expeditions e seu papel em uma empresa iniciante recente chamada Verrus , que visa construir data centers sustentáveis.
Qual é o desafio que esta nova iniciativa das Expedições NSF irá enfrentar?
O desafio é que a IA está decolando e há uma enorme excitação em torno dela. E as coisas subjacentes são data centers, GPUs (unidades de processamento gráfico) e computação. Estes já utilizam enormes quantidades de energia e tudo indica que esta irá crescer a taxas absurdas nos próximos anos. Uma empresa que adota IA generativa para algo onde costumava usar métodos de otimização mais tradicionais provavelmente está usando de 10 a 20 vezes mais carbono para fazer isso, então, se melhorias não forem feitas, estamos falando de dobrar ou mais em cinco anos período em termos da pegada de carbono da tecnologia da informação que fazemos.
Já em muitas áreas onde os data centers estão localizados, como a Virgínia do Norte, a Irlanda ou Amsterdã, estamos falando de 20 ou 30 por cento do uso de eletricidade nessas áreas sendo dedicado aos data centers. E isso foi antes do boom do treinamento em IA realmente atingir.
As concessionárias estão chegando ao ponto em que não conseguem mais atender à demanda. Assim, por exemplo, não é possível construir um data center em algumas regiões neste momento porque elas simplesmente não conseguem lidar com a demanda de energia. E os grandes data centers que locais como a OpenAI estão planejando construir são data centers em escala de gigawatts. Isso é tanta energia quanto as cidades de médio porte usam para treinar em um único campus.
Você pode falar sobre o impacto desses data centers?
Para um data center construído da maneira tradicional, se você pensar no uso de carbono, terá o carbono que vai para a fabricação do hardware e do edifício. Isso é chamado de carbono incorporado. E então você obtém o carbono operacional da corrida e do treinamento. E ambos são enormes. Além disso, além disso, você tem o uso de água que flui para esses data centers para ajudar no resfriamento. E as necessidades de água também são enormes.
Mas outro aspecto de tudo isto é o impacto local. Quando olhamos especialmente para novos campi que estão sendo construídos em áreas onde não existiam muitos data centers antes, estamos desperdiçando grandes recursos consumidores de energia e água em cidades de tamanho moderado. Isto tem um impacto nas tarifas de energia e água para as pessoas que vivem lá. Há a poluição associada aos geradores de backup nos data centers, que precisam funcionar para fazer manutenção regular. E, portanto, há grandes impactos ambientais e económicos locais, além do uso global de carbono. Esses centros também são grandes projetos de construção. Mas, para além da construção, não criam muitos empregos para os bairros onde vão porque não há muitas necessidades humanas em termos de geri-los depois de construídos. Portanto, existem enormes desafios em torno de sua construção.
E ainda assim eles são essenciais para o avanço da IA e todas as melhorias que a acompanham.
Isso está relacionado à minha próxima pergunta sobre a Verrus, empresa iniciante da Sidewalk Infrastructure Partners (SIP). Como você está envolvido com isso e qual é o objetivo aí?
Estou envolvido no conselho consultivo e consultei a SIP enquanto eles pensavam em lançar o Verrus. Nosso objetivo é construir os data centers mais sustentáveis operando nessas enormes escalas.
Os data centers de hoje geralmente são alimentados por geradores de backup em grande escala e são apenas usuários da rede e dos serviços públicos, mas não precisam ser assim. Na verdade, já existe muita tecnologia proveniente da nossa investigação e de muitos outros grupos como o nosso que têm trabalhado nisto durante a última década. Mas tem sido muito difícil para esta tecnologia chegar ao mundo dos data centers até agora.
Todos os desafios de que acabámos de falar proporcionam, na verdade, uma enorme oportunidade de mercado, no sentido de que as empresas de serviços públicos em muitos locais onde as empresas pretendem construir centros de dados simplesmente não os aceitarão, ou pelo menos haverá uma fila de interconexão muito grande, a menos que um data center centro pode ajudar a concessionária a atender às suas necessidades de alguma forma. Mas se você puder ser parceiro da concessionária em vez de um dreno, poderá obter acesso à capacidade. Você poderá construir em lugares onde de outra forma seria difícil.
Para fazer isso, há muito trabalho de otimização a ser feito – otimização da forma como a energia funciona no data center, da forma como o agendamento funciona, do tipo de armazenamento e sistemas de energia de backup que você constrói no centro. E a Verrus otimizará tudo isso de forma realmente inovadora para que possa ser uma parceira das concessionárias de uma forma que os data centers normalmente não são.
Voltando às Expedições da NSF, como é que a iniciativa planeia tornar as TIC mais verdes?
Eu diria que há uma década era difícil convencer as empresas a prestarem atenção ao impacto do carbono operacional naquilo que faziam. Gradualmente, o impacto ambiental dos data centers começou a ficar mais claro e, operacionalmente, começaram a medir e compreender o seu uso de carbono. Vários de nossos alunos foram alguns dos primeiros a construir ferramentas de medição em várias dessas empresas.
Depois, algumas empresas começaram a fazer acordos de compra de energia solar e eólica sempre que construíam data centers. Alguns tinham essas metas anuais de zero emissões líquidas para tentar neutralizar o impacto de sua energia no sentido operacional. Mas isso realmente não resolve o problema porque você não está alimentando energia verde quando a utiliza, então ainda está criando uma enorme pressão na rede.
Só recentemente é que as empresas têm vindo a avançar em direção a promessas reais de emissões líquidas zero, 24 horas por dia, 7 dias por semana, em termos do seu impacto operacional. Mas conseguir isso é um enorme desafio. Parte da expedição está tentando avançar em direção a um projeto de data center, do ponto de vista operacional, que possa atingir esse objetivo. Isso significa que você precisa ser muito responsivo à rede, à disponibilidade de energia e à movimentação de cargas de trabalho – para alterá-las a tempo de poder fazer o trabalho quando tiver mais energia disponível e fazer menos quando houver menos energia verde disponível. , mas também para movê-los entre locais para que você possa trabalhar onde houver energia verde disponível. Esse é um grande problema algorítmico.
E então, como discutimos em relação à Verrus, os data centers podem realmente ajudar a rede. Muitas das restrições operacionais de uma rede elétrica ocorrem apenas algumas horas por ano, onde há realmente o pico de necessidade, como durante o período mais quente do dia mais quente de verão. Isso significa que um data center que seja flexível e faça o que chamamos de “redução de pico” e reduza suas cargas nos momentos de pico de demanda pode ajudar a própria rede a operar com muito mais eficiência e reduzir a necessidade de instalação de novos geradores convencionais. A transição de um data center como uma enorme carga para a rede para outro onde é um recurso que ajuda a rede a operar de forma mais eficiente é crucial para os próximos anos.
Do lado do carbono incorporado, há uma necessidade de minimizar o carbono usado na fabricação dos próprios recursos computacionais. Aqui estamos falando dos três R's típicos: reduzir, reutilizar, reciclar. Nesta área, não existe sequer uma medida acordada para o impacto – a quantidade de carbono incorporado que vai para os centros de dados, como se mede isso, como se presta atenção a onde e quando as coisas foram fabricadas. Depois de medir e compreender isso de forma eficaz, você poderá começar a avaliar o desempenho das empresas e fornecer-lhes ferramentas para reduzir o carbono incorporado nesses data centers.
O objectivo ambicioso é reduzir efectivamente o impacto das TIC em termos de carbono em 45 por cento, apesar do enorme crescimento na utilização de infraestruturas informáticas. E, honestamente, acho que isso é possível se você conseguir uma ampla mudança na indústria na reutilização e reciclagem de hardware e na integração operacional com a rede.
Eu sei que quando você veio para a Caltech como cientista da computação, esse trabalho sobre computação sustentável não estava realmente no seu radar. Como você se sente em relação ao trabalho que está fazendo hoje?
Acho que para mim há um momento social aqui que é simplesmente crucial. Este é talvez um dos maiores desafios em torno da energia no momento. Devido ao poder da IA para ajudar em problemas de sustentabilidade de forma ampla – para projetar melhores materiais, para projetar melhor armazenamento, tudo isso – precisamos habilitá -la. Portanto, precisamos destes centros de dados e desta infraestrutura informática para ajudar a tornar todas as indústrias mais sustentáveis. E, ao mesmo tempo, seremos limitados na forma como podemos usar a IA, a menos que consigamos resolver diretamente o problema de sustentabilidade da IA. Então, este é um momento extremamente importante.
Há uma sensação de que aquilo sobre o qual temos falado no meu grupo e nesta área de investigação durante 10 anos está finalmente aqui e é visível para o resto da indústria e para a comunidade de investigação. Temos falado sobre sustentabilidade e temos feito progressos ao longo do caminho, mas realmente chegou o momento em que essas coisas estão na frente e no centro. E é emocionante poder causar esse impacto sobre um problema realmente importante em um momento realmente importante.