Tecnologia Científica

Novo modelo reconhece emoções em indivíduos surdos, analisando sinais de EEG
Em seus experimentos, Song e seus colegas descobriram que seu modelo podia reconhecer as emoçoes de indivíduos surdos com uma precisão significativamente maior do que reconhecia as emoçoes de pessoas sem deficiência auditiva.
Por Ingrid Fadelli - 28/09/2021


A distribuição média de PSD de sujeitos normais e surdos em três tipos de emoções com diferentes bandas de frequência. A barra colorida mostra a intensidade da ativação cerebral, variando de -1 a 1. Crédito: Kang et al.

Pesquisadores da Universidade de Tecnologia de Tianjin, na China, desenvolveram recentemente uma nova estrutura baseada em redes cerebrais para reconhecer as emoções de pessoas surdas. Este framework, apresentado em um artigo publicado no IEEE Sensors Journal , ébaseado especificamente em uma técnica computacional conhecida como stacking ensemble learning, que combina as previsaµes feitas por vários algoritmos de aprendizado de ma¡quina diferentes.

"Na comunicação dia¡ria com alunos surdos, descobrimos que eles reconhecem as emoções de outras pessoas com base principalmente na observação visual", disse Yu Song, um dos pesquisadores que realizou o estudo. “Em comparação com pessoas normais, também existem certas diferenças na percepção das emoções pelos surdos, o que pode causar alguns problemas, como desvios psicola³gicos na vida dia¡ria.”

A maioria dos estudos anteriores com o objetivo de desenvolver modelos de reconhecimento de emoções foi realizada em indivíduos sem deficiências sensoriais. Song e seus colegas se propuseram a preencher essa lacuna na literatura, desenvolvendo uma estrutura que possa classificar especificamente as emoções de indivíduos surdos.

Primeiro, os pesquisadores examinaram as diferenças na atividade cerebral e conectividade funcional entre sujeitos sem deficiência auditiva e surdos quando em três diferentes estados emocionais (positivo, neutro e negativo). Para fazer isso, eles recrutaram 15 alunos surdos na Universidade de Tecnologia de Tianjin e coletaram gravações cerebrais semelhantes a s do conjunto de dados SEED, um conjunto de dados renomado contendo vários sinais de EEG de indivíduos sem deficiência auditiva.

"Normalmente, as caracteri­sticas do EEG são extraa­das do doma­nio do tempo , doma­nio da frequência e doma­nio da frequência do tempo para o reconhecimento de emoções", explicou Song. "Isso ocorre porque a teoria da Neurociênciasugere que os processos cognitivos são refletidos pela propagação de informações no cérebro e interações entre diferentes regiaµes cerebrais. Portanto, decidimos desenvolver um novo modelo de aprendizagem de conjunto de empilhamento de rede cerebral para reconhecimento de emoção que combina as informações coletadas por diferentes algoritmos. "

Em seu experimento inicial, Song e seus colegas descobriram que a seleção do valor limite desempenhou um papel importante na construção da rede cerebral. Para reduzir as conexões falsas e reter as va¡lidas, eles propuseram o uso de limites que eram duplos para binários na matriz de conexão do valor de bloqueio de fase (PLV). O PLV éuma medida da sincronia de fase entre duas sanãries temporais diferentes que éamplamente usada para examinar a conectividade do cérebro por meio da análise de dados de imagem, como varreduras de MEG e EEG.
 
"Em seguida, extraa­mos os recursos globais e locais da rede cerebral e usamos a estrutura de aprendizagem de conjunto de empilhamento que desenvolvemos para classificar os recursos extraa­dos", disse Song. "Nossos resultados experimentais mostram que o modelo proposto pode aprender recursos de EEG discriminativos e de doma­nio robusto para melhorar a precisão do reconhecimento de emoção. Diferentemente do aprendizado profundo , nosso modelo também éadequado para dados de amostra pequena e pode efetivamente reduzir o risco de overfitting."

Em seus experimentos, Song e seus colegas descobriram que seu modelo podia reconhecer as emoções de indivíduos surdos com uma precisão significativamente maior do que reconhecia as emoções de pessoas sem deficiência auditiva. Uma possí­vel explicação para isso éque os surdos tem uma compreensão mais simples das emoções devido a  falta de um canal associado a  aquisição de emoções.

Conexaµes entre canais na matriz de adjacaªncia (w≥0,5, w_red> w_blue), em diferentes
estados emocionais, respectivamente. As linhas sãolidas vermelhas denotam ligações mais
fortes em comparação com as linhas sãolidas azuis. Crédito: Kang et al.

Notavelmente, o modelo dos pesquisadores superou significativamente outros modelos de última geração para reconhecimento de emoções. Além disso, a equipe descobriu que as diferenças na atividade cerebral e conectividade funcional entre sujeitos surdos e sem deficiência auditiva eram mais a³bvias em estados de carga emocional do que em condições neutras.

"Para indivíduos normais, descobrimos que os lobos pré-frontal e temporal esquerdo são provavelmente a área de informação emocional mais abundante, investigando a atividade cerebral", disse Song. "Para sujeitos surdos, os lobos frontal, temporal e occipital são provavelmente a área de informação de reconhecimento de emoção mais abundante."

O estudo forneceu informações valiosas sobre as diferenças entre a atividade cerebral de surdos e ouvintes em diferentes estados emocionais. Por exemplo, Song e seus colegas observaram que, em comparação com sujeitos auditivos, sujeitos surdos exibem maior ativação nos lobos occipital e parietal e menor ativação no lobo temporal. Essas diferenças podem estar relacionadas ao mecanismo de compensação no cérebro de participantes surdos enquanto assistiam aos clipes de filmes emocionais mostrados a eles durante o experimento.

"Descobrimos que, para indivíduos normais, as relações intercanais locais entre os lobos frontais podem fornecer informações aºteis para o reconhecimento de emoções, e as relações intercanais globais entre os lobos frontal, parietal e occipital também podem fornecer informações aºteis", disse Song. "Para sujeitos surdos, por outro lado, as relações intercanais globais entre os lobos frontal, temporal e occipital são de grande importa¢ncia para o reconhecimento de emoções, bem como as relações intercanais entre os hemisfanãrios direito e esquerdo do cérebro também podem fornecer informação útil."

O estudo pode ter várias implicações importantes. Em primeiro lugar, o trabalho pode melhorar a compreensão atual de como os estados emocionais se manifestam no cérebro de indivíduos surdos e como isso difere do processamento emocional em pessoas sem deficiência auditiva.

Além disso, o modelo de reconhecimento de emoção que desenvolveram pode ser usado para identificar as emoções de pessoas surdas, tanto no cotidiano quanto no ambiente cla­nico. Além disso, o trabalho dos pesquisadores pode informar o desenvolvimento de estratanãgias para reduzir as diferenças na cognição emocional entre surdos e ouvintes.

O modelo pode atualmente atingir uma precisão de aproximadamente 60% em todos os assuntos quando aplicado aos 15 participantes surdos que eles recrutaram. No futuro, Song e seus colegas esperam melhorar o desempenho de seu modelo e sua capacidade de generalizar bem entre diferentes indiva­duos.

"Recentemente, também comea§amos a recrutar mais sujeitos surdos para participarem do experimento de reconhecimento de emoções EEG, e as categorias de emoções incluem diversão, encorajamento, calma, tristeza, raiva e medo", acrescentou Song. "Continuaremos a expandir nosso conjunto de dados e fornecaª-lo gratuitamente aos pesquisadores mundiais em trabalhos posteriores para que eles possam estudar o mecanismo nervoso do cérebro de sujeitos surdos em diferentes estados emocionais."

 

.
.

Leia mais a seguir