Tecnologia Científica

Novo software permite que usuários cegos e com baixa visão criem gráficos interativos e acessíveis
Os usuários de leitores de tela podem fazer upload de um conjunto de dados e criar representações de dados personalizadas que combinam visualização, descrição textual e sonificação.
Por Adão Zewe - 02/04/2024


Umwelt é um novo sistema que permite que usuários cegos e com baixa visão criem gráficos acessíveis e interativos que representam dados em três modalidades: visualização, descrição textual e sonificação. Imagem: Notícias do MIT; iStock

Um número crescente de ferramentas permite aos utilizadores fazer representações de dados online, como gráficos, que são acessíveis a pessoas cegas ou com baixa visão. No entanto, a maioria das ferramentas exige um gráfico visual existente que pode então ser convertido em um formato acessível.

Isto cria barreiras que impedem que utilizadores cegos e com baixa visão construam as suas próprias representações de dados personalizadas e pode limitar a sua capacidade de explorar e analisar informações importantes.

Uma equipe de pesquisadores do MIT e da University College London (UCL) quer mudar a forma como as pessoas pensam sobre representações de dados acessíveis.

Eles criaram um sistema de software chamado Umwelt (que significa “ambiente” em alemão) que pode permitir que usuários cegos e com baixa visão construam representações de dados multimodais personalizadas sem a necessidade de um gráfico visual inicial.

Umwelt, um ambiente de autoria projetado para usuários de leitores de tela, incorpora um editor que permite fazer upload de um conjunto de dados e criar uma representação personalizada, como um gráfico de dispersão, que pode incluir três modalidades: visualização, descrição textual e sonificação. A sonificação envolve a conversão de dados em áudio não falado.

O sistema, que pode representar uma variedade de tipos de dados, inclui um visualizador que permite que um usuário cego ou com baixa visão explore interativamente uma representação de dados, alternando perfeitamente entre cada modalidade para interagir com os dados de uma maneira diferente.

Os pesquisadores conduziram um estudo com cinco usuários especialistas em leitores de tela que consideraram o Umwelt útil e fácil de aprender. Além de oferecer uma interface que lhes permitia criar representações de dados – algo que eles disseram que faltava – os usuários disseram que o Umwelt poderia facilitar a comunicação entre pessoas que dependem de diferentes sentidos.

“Temos que lembrar que as pessoas cegas e com baixa visão não estão isoladas. Eles existem nesses contextos onde querem conversar com outras pessoas sobre dados”, diz Jonathan Zong, estudante de graduação em engenharia elétrica e ciência da computação (EECS) e autor principal de um artigo que apresenta o Umwelt . “Tenho esperança de que o Umwelt ajude a mudar a forma como os pesquisadores pensam sobre a análise de dados acessíveis. Permitir a plena participação de pessoas cegas e com baixa visão na análise de dados envolve ver a visualização como apenas uma peça deste quebra-cabeça multissensorial maior.”

Juntando-se a Zong no artigo estão as colegas estudantes de pós-graduação do EECS, Isabella Pedraza Pineros e Mengzhu “Katie” Chen; Daniel Hajas, pesquisador da UCL que trabalha com o Global Disability Innovation Hub; e o autor sênior Arvind Satyanarayan, professor associado de ciência da computação no MIT que lidera o Grupo de Visualização no Laboratório de Ciência da Computação e Inteligência Artificial. O artigo será apresentado na Conferência ACM sobre Fatores Humanos em Computação.

Visualização descentralizada

Os pesquisadores desenvolveram anteriormente interfaces interativas que proporcionam uma experiência mais rica para usuários de leitores de tela à medida que exploram representações de dados acessíveis. Através desse trabalho, eles perceberam que a maioria das ferramentas para criar tais representações envolve a conversão de gráficos visuais existentes.

Com o objetivo de descentralizar as representações visuais na análise de dados, Zong e Hajas, que perdeu a visão aos 16 anos, começaram a coprojetar o Umwelt há mais de um ano.

No início, eles perceberam que precisariam repensar como representar os mesmos dados usando formas visuais, auditivas e textuais.

“Tivemos que colocar um denominador comum nas três modalidades. Ao criar esta nova linguagem para representações e tornar acessíveis os resultados e as entradas, o todo é maior do que a soma das partes”, diz Hajas.

Para construir o Umwelt, eles primeiro consideraram o que há de único na maneira como as pessoas usam cada sentido.

Por exemplo, um usuário com visão pode ver o padrão geral de um gráfico de dispersão e, ao mesmo tempo, mover os olhos para focar em diferentes pontos de dados. Mas para quem ouve uma sonificação, a experiência é linear, pois os dados são convertidos em tons que devem ser reproduzidos um de cada vez.

“Se você está pensando apenas em traduzir diretamente recursos visuais em recursos não visuais, você perde os pontos fortes e fracos de cada modalidade”, acrescenta Zong.

Eles projetaram o Umwelt para oferecer flexibilidade, permitindo ao usuário alternar facilmente entre modalidades quando uma delas fosse melhor para sua tarefa em um determinado momento.

Para usar o editor, carrega-se um conjunto de dados no Umwelt, que emprega heurística para criar automaticamente representações padrão em cada modalidade.

Se o conjunto de dados contiver preços de ações de empresas, o Umwelt poderá gerar um gráfico de linhas multisséries, uma estrutura textual que agrupa dados por símbolo e data, e uma sonificação que usa comprimento de tom para representar o preço de cada data, organizado por símbolo.

A heurística padrão destina-se a ajudar o usuário a começar.

“Em qualquer tipo de ferramenta criativa, você tem um efeito de folha em branco onde é difícil saber por onde começar. Isso é agravado em uma ferramenta multimodal porque você precisa especificar as coisas em três representações diferentes”, diz Zong.

O editor vincula interações entre modalidades, portanto, se um usuário alterar a descrição textual, essa informação será ajustada na sonificação correspondente. Alguém poderia utilizar o editor para construir uma representação multimodal, passar para o visualizador para uma exploração inicial e depois retornar ao editor para fazer ajustes.

Ajudando os usuários a se comunicarem sobre dados

Para testar o Umwelt, eles criaram um conjunto diversificado de representações multimodais, de gráficos de dispersão a gráficos multivisualização, para garantir que o sistema pudesse representar efetivamente diferentes tipos de dados. Em seguida, eles colocaram a ferramenta nas mãos de cinco usuários especialistas em leitores de tela.

Os participantes do estudo consideraram principalmente o Umwelt útil para criar, explorar e discutir representações de dados. Um usuário disse que o Umwelt era como um “facilitador” que diminuía o tempo que levavam para analisar os dados. Os usuários concordaram que o Umwelt poderia ajudá-los a comunicar dados mais facilmente com colegas com visão.

“O que se destaca no Umwelt é sua filosofia central de tirar a ênfase do visual em favor de uma experiência de dados multissensorial equilibrada. Freqüentemente, as representações de dados não visuais são relegadas ao status de considerações secundárias, meros complementos às suas contrapartes visuais. No entanto, a visualização é apenas um aspecto da representação de dados. Agradeço os seus esforços para mudar esta percepção e adotar uma abordagem mais inclusiva à ciência de dados”, afirma JooYoung Seo, professor assistente na Escola de Ciências da Informação da Universidade de Illinois em Urbana-Champagne, que não esteve envolvido neste trabalho.

Seguindo em frente, os pesquisadores planejam criar uma versão de código aberto do Umwelt que outros possam desenvolver. Eles também desejam integrar a detecção tátil ao sistema de software como uma modalidade adicional, permitindo o uso de ferramentas como telas gráficas táteis atualizáveis.

“Além de seu impacto nos usuários finais, espero que o Umwelt possa ser uma plataforma para fazer perguntas científicas sobre como as pessoas usam e percebem as representações multimodais e como podemos melhorar o design além desta etapa inicial”, diz Zong.

Este trabalho foi apoiado, em parte, pela National Science Foundation e pela MIT Morningside Academy for Design Fellowship.

 

.
.

Leia mais a seguir