Tecnologia Científica

Sistema traz aprendizado profundo para dispositivos de internet das coisas
O Advance pode habilitar a inteligaªncia artificial em eletrodomanãsticos ao mesmo tempo em que melhora a segurança dos dados e a eficiência energanãtica.
Por Daniel Ackerman - 16/11/2020


Os pesquisadores do MIT desenvolveram um sistema, chamado MCUNet, que leva o aprendizado de ma¡quina aos microcontroladores. O avanço pode aprimorar o funcionamento e a segurança dos dispositivos conectados a  Internet das Coisas (IoT).

O aprendizado profundo estãoem toda parte. Este ramo da inteligaªncia artificial faz a curadoria de suas ma­dias sociais e fornece seus resultados de pesquisa do Google. Em breve, o aprendizado profundo também podera¡ verificar seus sinais vitais ou definir seu termostato. Os pesquisadores do MIT desenvolveram um sistema que pode trazer redes neurais de aprendizagem profunda para novos - e muito menores - lugares, como os minaºsculos chips de computador em dispositivos médicos vesta­veis, eletrodomanãsticos e os 250 bilhaµes de outros objetos que constituem a "internet das coisas" ( IoT).

O sistema, chamado MCUNet , projeta redes neurais compactas que oferecem velocidade e precisão sem precedentes para aprendizado profundo em dispositivos IoT, apesar da memória e do poder de processamento limitados. A tecnologia pode facilitar a expansão do universo IoT enquanto economiza energia e melhora a segurança dos dados.

A pesquisa seráapresentada na Conferência sobre Sistemas de Processamento de Informação Neural do pra³ximo maªs. O autor principal éJi Lin, estudante de PhD no laboratório de Song Han no Departamento de Engenharia Elanãtrica e Ciência da Computação do MIT. Os co-autores incluem Han e Yujun Lin do MIT, Wei-Ming Chen do MIT e da National University Taiwan, e John Cohn e Chuang Gan do MIT-IBM Watson AI Lab.

A Internet das Coisas

A IoT nasceu no ini­cio dos anos 1980. Alunos de graduação na Carnegie Mellon University, incluindo Mike Kazar '78, conectaram uma ma¡quina Cola-Cola a  Internet. A motivação do grupo era simples: preguia§a. Eles queriam usar seus computadores para confirmar se a ma¡quina estava estocada antes de sair do escrita³rio para fazer uma compra. Foi o primeiro aparelho conectado a  Internet do mundo. “Isso foi tratado como a piada de uma piada”, diz Kazar, agora engenheiro da Microsoft. “Ninguanãm esperava bilhaµes de dispositivos na Internet.”

Desde aquela ma¡quina de Coca-Cola, os objetos do dia-a-dia tornaram-se cada vez mais interligados na crescente IoT. Isso inclui tudo, desde monitores carda­acos usa¡veis ​​a geladeiras inteligentes que avisam quando vocêestãocom pouco leite. Os dispositivos IoT geralmente são executados em microcontroladores - chips de computador simples sem sistema operacional, poder de processamento ma­nimo e menos de um milanãsimo da memória de um smartphone ta­pico. Portanto, tarefas de reconhecimento de padraµes, como aprendizado profundo, são difa­ceis de executar localmente em dispositivos IoT. Para análises complexas, os dados coletados pela IoT costumam ser enviados para a nuvem, tornando-os vulnera¡veis ​​a hackers.

“Como podemos implantar redes neurais diretamente nesses dispositivos minaºsculos? a‰ uma nova área de pesquisa que estãoficando muito quente ”, diz Han. “Empresas como Google e ARM estãotrabalhando nessa direção.” Han também.

Com o MCUNet, o grupo de Han codificou dois componentes necessa¡rios para “minaºsculo aprendizado profundo” - a operação de redes neurais em microcontroladores. Um componente éo TinyEngine, um mecanismo de inferaªncia que direciona o gerenciamento de recursos, semelhante a um sistema operacional. O TinyEngine éotimizado para executar uma estrutura de rede neural especa­fica, que éselecionada por outro componente do MCUNet: TinyNAS, um algoritmo de pesquisa de arquitetura neural.

Codeign de algoritmo do sistema

Projetar uma rede profunda para microcontroladores não éfa¡cil. As técnicas de pesquisa de arquitetura neural existentes comea§am com um grande conjunto de estruturas de rede possa­veis com base em um modelo predefinido e, gradualmente, encontram aquele com alta precisão e baixo custo. Embora o manãtodo funcione, não éo mais eficiente. “Pode funcionar muito bem para GPUs ou smartphones”, diz Lin. “Mas tem sido difa­cil aplicar diretamente essas técnicas a microcontroladores minaºsculos, porque eles são muito pequenos”.

Então Lin desenvolveu o TinyNAS, um manãtodo de pesquisa de arquitetura neural que cria redes de tamanho personalizado. “Temos muitos microcontroladores que vão com diferentes capacidades de energia e diferentes tamanhos de memória”, diz Lin. “Então, desenvolvemos o algoritmo [TinyNAS] para otimizar o espaço de busca para diferentes microcontroladores.” A natureza personalizada do TinyNAS significa que ele pode gerar redes neurais compactas com o melhor desempenho possí­vel para um determinado microcontrolador - sem parametros desnecessa¡rios. “Em seguida, entregamos o modelo final e eficiente ao microcontrolador”, diz Lin.

Para executar essa pequena rede neural, um microcontrolador também precisa de um mecanismo de inferaªncia enxuto. Um mecanismo de inferaªncia ta­pico carrega algum peso morto - instruções para tarefas que ele raramente executa. O ca³digo extra não representa nenhum problema para um laptop ou smartphone, mas pode facilmente sobrecarregar um microcontrolador. “Ele não tem memória fora do chip e não tem disco”, diz Han. “Tudo junto éapenas um megabyte de flash, então temos que gerenciar com muito cuidado um recurso tão pequeno.” Cue TinyEngine.

Os pesquisadores desenvolveram seu mecanismo de inferaªncia em conjunto com o TinyNAS. O TinyEngine gera o ca³digo essencial necessa¡rio para executar a rede neural personalizada do TinyNAS. Qualquer ca³digo de peso morto édescartado, o que reduz o tempo de compilação. “Guardamos apenas o que precisamos”, diz Han. “E como projetamos a rede neural, sabemos exatamente do que precisamos. Essa éa vantagem do codesign de algoritmo do sistema. ” Nos testes do grupo do TinyEngine, o tamanho do ca³digo bina¡rio compilado foi entre 1,9 e cinco vezes menor do que motores de inferaªncia de microcontroladores compara¡veis ​​do Google e ARM. O TinyEngine também contanãm inovações que reduzem o tempo de execução, incluindo convolução em profundidade no local, que reduz o pico de uso de memória quase pela metade. Depois de codificar o TinyNAS e o TinyEngine, a equipe de Han colocou o MCUNet em teste.

O primeiro desafio da MCUNet foi a classificação de imagens. Os pesquisadores usaram o banco de dados ImageNet para treinar o sistema com imagens rotuladas e, em seguida, testar sua capacidade de classificar as novas. Em um microcontrolador comercial que eles testaram, o MCUNet classificou com sucesso 70,7% das novas imagens - a combinação anterior de rede neural e mecanismo de inferaªncia de última geração tinha apenas 54% de precisão. “Mesmo uma melhoria de 1 por cento éconsiderada significativa”, diz Lin. “Portanto, este éum salto gigante para as configurações do microcontrolador.”

A equipe encontrou resultados semelhantes em testes ImageNet de três outros microcontroladores. E tanto em velocidade quanto em precisão, o MCUNet venceu a competição por tarefas de “wake-word” de a¡udio e visual, onde um usua¡rio inicia uma interação com um computador usando pistas vocais (pense: “Ei, Siri”) ou simplesmente entrando em uma sala. Os experimentos destacam a adaptabilidade do MCUNet a inaºmeras aplicações.

“Grande potencial”

Os resultados do teste promissores da£o a Han esperana§a de que ele se tornara¡ o novo padrãoda indústria para microcontroladores. “Tem um potencial enorme”, diz ele.

O avanço “estende a fronteira do projeto de rede neural profunda ainda mais no doma­nio computacional de pequenos microcontroladores eficientes em energia”, diz Kurt Keutzer, um cientista da computação da Universidade da Califórnia em Berkeley, que não esteve envolvido no trabalho. Ele acrescenta que o MCUNet poderia “trazer recursos de visão computacional inteligente atémesmo para os eletrodomanãsticos mais simples ou habilitar sensores de movimento mais inteligentes”.

O MCUNet também pode tornar os dispositivos IoT mais seguros. “Uma vantagem importante épreservar a privacidade”, diz Han. “Vocaª não precisa transmitir os dados para a nuvem.”

A análise de dados localmente reduz o risco de roubo de informações pessoais - incluindo dados pessoais de saúde. Han imagina rela³gios inteligentes com MCUNet que não apenas detectam os batimentos carda­acos, a pressão arterial e os na­veis de oxigaªnio dos usuários, mas também analisam e os ajudam a compreender essas informações. O MCUNet também pode trazer aprendizado profundo para dispositivos IoT em vea­culos e áreas rurais com acesso limitado a  Internet.

Além disso, a pequena pegada de computação do MCUNet se traduz em uma pequena pegada de carbono. “Nosso grande sonho éa IA verde”, diz Han, acrescentando que treinar uma grande rede neural pode queimar carbono equivalente a s emissaµes de cinco carros. O MCUNet em um microcontrolador exigiria uma pequena fração dessa energia. “Nosso objetivo final épermitir uma IA eficiente e minaºscula com menos recursos computacionais, menos recursos humanos e menos dados”, diz Han.

 

.
.

Leia mais a seguir