Estudo mostra que a forma como o cérebro aprende é diferente da forma como os sistemas de inteligência artificial aprendem
Pesquisadores da Unidade de Dinâmica de Rede Cerebral do MRC e do Departamento de Ciência da Computação da Universidade de Oxford estabeleceram um novo princípio para explicar como o cérebro ajusta as conexões entre os neurônios durante o aprendizado

Estudo mostra que a forma como o cérebro aprende é diferente da forma como os sistemas de inteligência artificial aprendem - Crédito da imagem: Pixabay
Pesquisadores da Unidade de Dinâmica de Rede Cerebral do MRC e do Departamento de Ciência da Computação da Universidade de Oxford estabeleceram um novo princípio para explicar como o cérebro ajusta as conexões entre os neurônios durante o aprendizado. Esta nova visão pode orientar futuras pesquisas sobre aprendizagem em redes cerebrais e inspirar algoritmos de aprendizagem mais rápidos e robustos em inteligência artificial.
A essência do aprendizado é identificar quais componentes do pipeline de processamento de informações são responsáveis por um erro na saída. Na inteligência artificial, isso é conseguido por retropropagação: ajuste dos parâmetros de um modelo para reduzir o erro na saída. Muitos pesquisadores acreditam que o cérebro emprega um princípio de aprendizagem semelhante.
No entanto, o cérebro biológico é superior aos atuais sistemas de aprendizado de máquina. Por exemplo, podemos aprender novas informações apenas vendo-as uma vez, enquanto os sistemas artificiais precisam ser treinados centenas de vezes com as mesmas informações para aprendê-las. Além disso, podemos aprender novas informações enquanto mantemos o conhecimento que já temos, enquanto aprender novas informações em redes neurais artificiais muitas vezes interfere no conhecimento existente e degrada-o rapidamente.
Essas observações motivaram os pesquisadores a identificar o princípio fundamental empregado pelo cérebro durante o aprendizado. Eles analisaram alguns conjuntos existentes de equações matemáticas que descrevem mudanças no comportamento dos neurônios e nas conexões sinápticas entre eles. Eles analisaram e simularam esses modelos de processamento de informações e descobriram que eles empregam um princípio de aprendizagem fundamentalmente diferente daquele usado pelas redes neurais artificiais.
Nas redes neurais artificiais, um algoritmo externo tenta modificar as conexões sinápticas para reduzir o erro, enquanto os pesquisadores propõem que o cérebro humano primeiro estabeleça a atividade dos neurônios em uma configuração ideal e equilibrada antes de ajustar as conexões sinápticas. Os pesquisadores postulam que esta é de fato uma característica eficiente da forma como o cérebro humano aprende. Isto porque reduz a interferência ao preservar o conhecimento existente, o que por sua vez acelera a aprendizagem.
Escrevendo na Nature Neuroscience , os pesquisadores descrevem este novo princípio de aprendizagem, que denominaram de “configuração prospectiva”. Eles demonstraram em simulações de computador que os modelos que empregam esta configuração prospectiva podem aprender de forma mais rápida e eficaz do que as redes neurais artificiais em tarefas que normalmente são enfrentadas por animais e humanos na natureza.
Os autores usam o exemplo da vida real de um urso pescando salmão. O urso pode ver o rio e aprendeu que se também puder ouvir o rio e sentir o cheiro do salmão, é provável que pegue um. Mas um dia o urso chega ao rio com a orelha danificada e não consegue ouvir. Num modelo de processamento de informação de rede neural artificial, esta falta de audição também resultaria numa falta de olfato (porque enquanto aprende que não há som, a retropropagação mudaria múltiplas ligações, incluindo aquelas entre os neurônios que codificam o rio e o salmão) e o urso iria concluir que não há salmão e passar fome. Mas no cérebro do animal, a falta de som não interfere no conhecimento de que ainda existe o cheiro do salmão, portanto é provável que o salmão ainda esteja lá para ser capturado.
Os pesquisadores desenvolveram uma teoria matemática que mostra que deixar os neurônios se estabelecerem em uma configuração prospectiva reduz a interferência entre as informações durante o aprendizado. Eles demonstraram que a configuração prospectiva explica melhor a atividade e o comportamento neural em vários experimentos de aprendizagem do que as redes neurais artificiais.
O pesquisador principal, Professor Rafal Bogacz, da Unidade de Dinâmica de Redes Cerebrais do MRC e do Departamento de Neurociências Clínicas de Nuffield , em Oxford , diz: “Existe atualmente uma grande lacuna entre modelos abstratos que realizam configurações prospectivas e nosso conhecimento detalhado da anatomia das redes cerebrais. Pesquisas futuras do nosso grupo visam preencher a lacuna entre modelos abstratos e cérebros reais, e compreender como o algoritmo de configuração prospectiva é implementado em redes corticais anatomicamente identificadas.
O primeiro autor do estudo, Dr. Yuhang Song , acrescenta: “No caso do aprendizado de máquina, a simulação da configuração prospectiva em computadores existentes é lenta, porque eles operam de maneiras fundamentalmente diferentes do cérebro biológico. É necessário desenvolver um novo tipo de computador ou hardware dedicado inspirado no cérebro, que seja capaz de implementar configurações prospectivas rapidamente e com pouco uso de energia.'
O artigo, ' Inferindo a atividade neural antes da plasticidade: uma base para aprender além da retropropagação ', foi publicado na Nature Neuroscience.