Tecnologia Científica

Problema da pegada de carbono da AI
Uma equipe de pesquisadores de Stanford criou uma ferramenta fa¡cil de usar que mede rapidamente a quantidade de eletricidade que um projeto de aprendizado de ma¡quina usara¡ e o quanto isso significa nas emissaµes de carbono.
Por Edmund L. Andrews - 03/07/2020


STOCKSY / JETTA PRODUCTIONS
Como podemos treinar sistemas de IA usando menos energia?

Apesar de todos os avanços possibilitados pela inteligaªncia artificial, do reconhecimento de fala aos carros auta´nomos, os sistemas de IA consomem muita energia e podem gerar altos volumes de emissaµes de carbono que mudam o clima.

Um estudo no ano passado constatou que o treinamento de um sistema de processamento de linguagem de IA pronto para uso produzia 1.400 libras de emissaµes - sobre a quantidade produzida ao voar uma pessoa de ida e volta entre Nova York e Sa£o Francisco. O conjunto completo de experimentos necessa¡rios para construir e treinar esse sistema de linguagem de IA do zero pode gerar ainda mais: até78.000 libras, dependendo da fonte de energia. Isso éo dobro do que o americano manãdio exala durante toda a vida.

Mas existem maneiras de tornar o aprendizado de ma¡quina mais limpo e mais ecola³gico, um movimento que foi chamado de "AI verde". Alguns algoritmos consomem menos energia do que outros, por exemplo, e muitas sessaµes de treinamento podem ser movidas para locais remotos que obtem a maior parte de sua energia de fontes renova¡veis.

A chave, no entanto, éque os desenvolvedores e empresas de IA saibam quanto seus experimentos de aprendizado de ma¡quina estãosendo lana§ados e quanto esses volumes podem ser reduzidos.

Agora, uma equipe de pesquisadores de Stanford, Facebook AI Research e McGill University criou uma ferramenta fa¡cil de usar que mede rapidamente a quantidade de eletricidade que um projeto de aprendizado de ma¡quina usara¡ e o quanto isso significa nas emissaµes de carbono. 

“Com o tempo”, diz Henderson, “éprova¡vel que os sistemas de aprendizado de ma¡quina consumam ainda mais energia na produção do que durante o treinamento. Quanto melhor entendermos nossas opções, mais limitaremos os possa­veis impactos ao meio ambiente. ”


"Amedida que os sistemas de aprendizado de ma¡quina se tornam mais onipresentes e consomem mais recursos, eles tem o potencial de contribuir significativamente para as emissaµes de carbono", diz Peter Henderson , estudante de doutorado em Stanford em ciência da computação e principal autor. “Mas vocênão pode resolver um problema se não puder medi-lo. Nosso sistema pode ajudar pesquisadores e engenheiros da indústria a entenderem como seu trabalho éeficiente em termos de carbono e, talvez, suscitar ideias sobre como reduzir sua pegada de carbono. ”

Rastreando Emissaµes

Henderson juntou-se ao “rastreador de impacto experimental” com Dan Jurafsky , presidente de lingua­stica e professor de ciência da computação em Stanford; Emma Brunskill , professora assistente de ciência da computação em Stanford; Jieru Hu, engenheiro de software do Facebook AI Research; Joelle Pineau , professora de ciência da computação na McGill e co-diretora do Facebook AI Research; e Joshua Romoff , um candidato a PhD na McGill.

“Ha¡ um grande esfora§o para ampliar o aprendizado de ma¡quina para resolver problemas cada vez maiores, usando mais poder computacional e mais dados”, diz Jurafsky. "Quando isso acontece, precisamos ter em mente se os benefa­cios desses modelos de computação pesada valem o custo do impacto no meio ambiente".

Os sistemas de aprendizado de ma¡quina desenvolvem suas habilidades executando milhões de experiências estata­sticas o tempo todo, refinando constantemente seus modelos para realizar tarefas. Essas sessaµes de treinamento, que podem durar semanas ou atémeses, estãocada vez mais famintas por energia. E como os custos caa­ram para poder de computação e conjuntos de dados massivos, o aprendizado de ma¡quina écada vez mais difundido nos nega³cios, governo, academia e vida pessoal.

Para obter uma medida precisa do que isso significa para as emissaµes de carbono, os pesquisadores começam medindo o consumo de energia de um modelo especa­fico de IA. Isso émais complicado do que parece, porque uma única ma¡quina geralmente treina vários modelos ao mesmo tempo; portanto, cada sessão de treinamento deve ser desembaraçada das outras. Cada sessão de treinamento também utiliza energia para funções gerais compartilhadas, como armazenamento e refrigeração de dados, que precisam ser alocadas adequadamente.

O pra³ximo passo éconverter o consumo de energia em emissaµes de carbono, que dependem da mistura de combusta­veis renova¡veis ​​e fa³sseis que produziram eletricidade. Essa mistura varia muito de acordo com o local e a hora do dia. Em áreas com muita energia solar, por exemplo, a intensidade de carbono da eletricidade diminui a  medida que o sol sobe mais alto no canãu.

Para obter essas informações, os pesquisadores vasculharam fontes públicas de dados sobre o mix de energia em diferentes regiaµes dos Estados Unidos e do mundo. Na Califa³rnia, o rastreador de experimentos se conecta a dados em tempo real da ISO da Califórnia , que gerencia o fluxo de eletricidade na maioria das redes do estado. a€s 12h45 em um dia no final de maio, por exemplo, as energias renova¡veis ​​forneciam 47% da energia do estado.

A localização de uma sessão de treinamento de IA pode fazer uma grande diferença em suas emissaµes de carbono. Os pesquisadores estimaram que a realização de uma sessão na Esta´nia, que depende predominantemente de a³leo de xisto, produzira¡ 30 vezes o volume de carbono que a mesma sessão de Quebec, que depende principalmente da hidroeletricidade.

AI mais ecola³gica

De fato, a primeira recomendação dos pesquisadores para reduzir a pegada de carbono émudar as sessaµes de treinamento para um local fornecido principalmente por fontes renova¡veis. Isso pode ser fa¡cil, porque os conjuntos de dados podem ser armazenados em um servidor em nuvem e acessados ​​de praticamente qualquer lugar.

Além disso, no entanto, os pesquisadores descobriram que alguns algoritmos de aprendizado de ma¡quina são porcos de energia maiores que outros. Em Stanford, por exemplo, mais de 200 alunos de uma turma de aprendizado por reforço foram solicitados a implementar algoritmos comuns para uma tarefa de casa. Embora dois dos algoritmos tenham um desempenho igualmente bom, um deles usa muito mais energia. Se todos os alunos tivessem usado o algoritmo mais eficiente, os pesquisadores estimaram que teriam reduzido seu consumo coletivo de energia em 880 quilowatts-hora - sobre o que uma casa americana ta­pica usa em um maªs.

O resultado destaca as oportunidades de redução das emissaµes de carbono, mesmo quando não éprático transferir o trabalho para um local que não agride o carbono. Geralmente, esse éo caso quando os sistemas de aprendizado de ma¡quina estãofornecendo servia§os em tempo real, como a navegação automotiva, porque longas distâncias causam atrasos na comunicação ou "lataªncia".

De fato, os pesquisadores incorporaram uma ferramenta fa¡cil de usar no rastreador que gera um site para comparar a eficiência energanãtica de diferentes modelos. Uma maneira simples de economizar energia, dizem eles, seria estabelecer o programa mais eficiente como a configuração padrãoao escolher qual deles usar.

“Com o tempo”, diz Henderson, “éprova¡vel que os sistemas de aprendizado de ma¡quina consumam ainda mais energia na produção do que durante o treinamento. Quanto melhor entendermos nossas opções, mais limitaremos os possa­veis impactos ao meio ambiente. ”

O rastreador de impacto do experimento estãodispona­vel online para pesquisadores. Ele já estãosendo usado no workshop SustaiNLP na Conferência deste ano sobre Manãtodos Empa­ricos no Processamento de Linguagem Natural, onde os pesquisadores são incentivados a criar e publicar algoritmos de PNL com uso eficiente de energia. A pesquisa, que não foi revisada por pares, foi publicada no site de pré-impressão Arxiv.org.

 

.
.

Leia mais a seguir