Tecnologia Científica

Problema da pegada de carbono da AI
Uma equipe de pesquisadores de Stanford criou uma ferramenta fácil de usar que mede rapidamente a quantidade de eletricidade que um projeto de aprendizado de máquina usará e o quanto isso significa nas emissões de carbono.
Por Edmund L. Andrews - 03/07/2020


STOCKSY / JETTA PRODUCTIONS
Como podemos treinar sistemas de IA usando menos energia?

Apesar de todos os avanços possibilitados pela inteligência artificial, do reconhecimento de fala aos carros autônomos, os sistemas de IA consomem muita energia e podem gerar altos volumes de emissões de carbono que mudam o clima.

Um estudo no ano passado constatou que o treinamento de um sistema de processamento de linguagem de IA pronto para uso produzia 1.400 libras de emissões - sobre a quantidade produzida ao voar uma pessoa de ida e volta entre Nova York e São Francisco. O conjunto completo de experimentos necessários para construir e treinar esse sistema de linguagem de IA do zero pode gerar ainda mais: até 78.000 libras, dependendo da fonte de energia. Isso é o dobro do que o americano médio exala durante toda a vida.

Mas existem maneiras de tornar o aprendizado de máquina mais limpo e mais ecológico, um movimento que foi chamado de "AI verde". Alguns algoritmos consomem menos energia do que outros, por exemplo, e muitas sessões de treinamento podem ser movidas para locais remotos que obtêm a maior parte de sua energia de fontes renováveis.

A chave, no entanto, é que os desenvolvedores e empresas de IA saibam quanto seus experimentos de aprendizado de máquina estão sendo lançados e quanto esses volumes podem ser reduzidos.

Agora, uma equipe de pesquisadores de Stanford, Facebook AI Research e McGill University criou uma ferramenta fácil de usar que mede rapidamente a quantidade de eletricidade que um projeto de aprendizado de máquina usará e o quanto isso significa nas emissões de carbono. 

“Com o tempo”, diz Henderson, “é provável que os sistemas de aprendizado de máquina consumam ainda mais energia na produção do que durante o treinamento. Quanto melhor entendermos nossas opções, mais limitaremos os possíveis impactos ao meio ambiente. ”


"À medida que os sistemas de aprendizado de máquina se tornam mais onipresentes e consomem mais recursos, eles têm o potencial de contribuir significativamente para as emissões de carbono", diz Peter Henderson , estudante de doutorado em Stanford em ciência da computação e principal autor. “Mas você não pode resolver um problema se não puder medi-lo. Nosso sistema pode ajudar pesquisadores e engenheiros da indústria a entenderem como seu trabalho é eficiente em termos de carbono e, talvez, suscitar ideias sobre como reduzir sua pegada de carbono. ”

Rastreando Emissões

Henderson juntou-se ao “rastreador de impacto experimental” com Dan Jurafsky , presidente de linguística e professor de ciência da computação em Stanford; Emma Brunskill , professora assistente de ciência da computação em Stanford; Jieru Hu, engenheiro de software do Facebook AI Research; Joelle Pineau , professora de ciência da computação na McGill e co-diretora do Facebook AI Research; e Joshua Romoff , um candidato a PhD na McGill.

“Há um grande esforço para ampliar o aprendizado de máquina para resolver problemas cada vez maiores, usando mais poder computacional e mais dados”, diz Jurafsky. "Quando isso acontece, precisamos ter em mente se os benefícios desses modelos de computação pesada valem o custo do impacto no meio ambiente".

Os sistemas de aprendizado de máquina desenvolvem suas habilidades executando milhões de experiências estatísticas o tempo todo, refinando constantemente seus modelos para realizar tarefas. Essas sessões de treinamento, que podem durar semanas ou até meses, estão cada vez mais famintas por energia. E como os custos caíram para poder de computação e conjuntos de dados massivos, o aprendizado de máquina é cada vez mais difundido nos negócios, governo, academia e vida pessoal.

Para obter uma medida precisa do que isso significa para as emissões de carbono, os pesquisadores começaram medindo o consumo de energia de um modelo específico de IA. Isso é mais complicado do que parece, porque uma única máquina geralmente treina vários modelos ao mesmo tempo; portanto, cada sessão de treinamento deve ser desembaraçada das outras. Cada sessão de treinamento também utiliza energia para funções gerais compartilhadas, como armazenamento e refrigeração de dados, que precisam ser alocadas adequadamente.

O próximo passo é converter o consumo de energia em emissões de carbono, que dependem da mistura de combustíveis renováveis ​​e fósseis que produziram eletricidade. Essa mistura varia muito de acordo com o local e a hora do dia. Em áreas com muita energia solar, por exemplo, a intensidade de carbono da eletricidade diminui à medida que o sol sobe mais alto no céu.

Para obter essas informações, os pesquisadores vasculharam fontes públicas de dados sobre o mix de energia em diferentes regiões dos Estados Unidos e do mundo. Na Califórnia, o rastreador de experimentos se conecta a dados em tempo real da ISO da Califórnia , que gerencia o fluxo de eletricidade na maioria das redes do estado. Às 12h45 em um dia no final de maio, por exemplo, as energias renováveis ​​forneciam 47% da energia do estado.

A localização de uma sessão de treinamento de IA pode fazer uma grande diferença em suas emissões de carbono. Os pesquisadores estimaram que a realização de uma sessão na Estônia, que depende predominantemente de óleo de xisto, produzirá 30 vezes o volume de carbono que a mesma sessão de Quebec, que depende principalmente da hidroeletricidade.

AI mais ecológica

De fato, a primeira recomendação dos pesquisadores para reduzir a pegada de carbono é mudar as sessões de treinamento para um local fornecido principalmente por fontes renováveis. Isso pode ser fácil, porque os conjuntos de dados podem ser armazenados em um servidor em nuvem e acessados ​​de praticamente qualquer lugar.

Além disso, no entanto, os pesquisadores descobriram que alguns algoritmos de aprendizado de máquina são porcos de energia maiores que outros. Em Stanford, por exemplo, mais de 200 alunos de uma turma de aprendizado por reforço foram solicitados a implementar algoritmos comuns para uma tarefa de casa. Embora dois dos algoritmos tenham um desempenho igualmente bom, um deles usa muito mais energia. Se todos os alunos tivessem usado o algoritmo mais eficiente, os pesquisadores estimaram que teriam reduzido seu consumo coletivo de energia em 880 quilowatts-hora - sobre o que uma casa americana típica usa em um mês.

O resultado destaca as oportunidades de redução das emissões de carbono, mesmo quando não é prático transferir o trabalho para um local que não agride o carbono. Geralmente, esse é o caso quando os sistemas de aprendizado de máquina estão fornecendo serviços em tempo real, como a navegação automotiva, porque longas distâncias causam atrasos na comunicação ou "latência".

De fato, os pesquisadores incorporaram uma ferramenta fácil de usar no rastreador que gera um site para comparar a eficiência energética de diferentes modelos. Uma maneira simples de economizar energia, dizem eles, seria estabelecer o programa mais eficiente como a configuração padrão ao escolher qual deles usar.

“Com o tempo”, diz Henderson, “é provável que os sistemas de aprendizado de máquina consumam ainda mais energia na produção do que durante o treinamento. Quanto melhor entendermos nossas opções, mais limitaremos os possíveis impactos ao meio ambiente. ”

O rastreador de impacto do experimento está disponível online para pesquisadores. Ele já está sendo usado no workshop SustaiNLP na Conferência deste ano sobre Métodos Empíricos no Processamento de Linguagem Natural, onde os pesquisadores são incentivados a criar e publicar algoritmos de PNL com uso eficiente de energia. A pesquisa, que não foi revisada por pares, foi publicada no site de pré-impressão Arxiv.org.

 

.
.

Leia mais a seguir