Tecnologia Científica

Engenheiros do MIT ajudam sistemas multirrobôs a permanecerem na zona de segurança
Uma nova pesquisa pode melhorar a segurança de shows de drones, robôs de depósito e carros autônomos.
Por Jennifer Chu | - 31/01/2025


Engenheiros do MIT desenvolveram um método de treinamento para sistemas multiagentes, como um grande número de drones, que pode garantir sua operação segura em ambientes lotados. Créditos: Imagem: Cortesia dos pesquisadores


Os shows de drones são uma forma cada vez mais popular de exibição de luzes em larga escala. Esses shows incorporam centenas a milhares de robôs aéreos, cada um programado para voar em caminhos que juntos formam formas e padrões intrincados no céu. Quando acontecem como planejado, os shows de drones podem ser espetaculares. Mas quando um ou mais drones apresentam mau funcionamento, como aconteceu recentemente na Flórida, Nova York e em outros lugares, eles podem ser um sério risco para os espectadores no solo.

Acidentes em shows de drones destacam os desafios de manter a segurança no que os engenheiros chamam de “sistemas multiagentes” — sistemas de múltiplos agentes coordenados, colaborativos e programados por computador, como robôs, drones e carros autônomos.

Agora, uma equipe de engenheiros do MIT desenvolveu um método de treinamento para sistemas multiagentes que pode garantir sua operação segura em ambientes lotados. Os pesquisadores descobriram que, uma vez que o método é usado para treinar um pequeno número de agentes, as margens de segurança e os controles aprendidos por esses agentes podem escalar automaticamente para qualquer número maior de agentes, de uma forma que garanta a segurança do sistema como um todo.

Em demonstrações no mundo real, a equipe treinou um pequeno número de drones do tamanho da palma da mão para executar com segurança diferentes objetivos, desde a troca simultânea de posições no meio do voo até o pouso em veículos em movimento designados no solo. Em simulações, os pesquisadores mostraram que os mesmos programas, treinados em alguns drones, poderiam ser copiados e ampliados para milhares de drones, permitindo que um grande sistema de agentes realizasse com segurança as mesmas tarefas.

“Isso pode ser um padrão para qualquer aplicação que exija uma equipe de agentes, como robôs de depósito, drones de busca e salvamento e carros autônomos”, diz Chuchu Fan, professor associado de aeronáutica e astronáutica no MIT. “Isso fornece um escudo, ou filtro de segurança, dizendo que cada agente pode continuar com sua missão, e nós lhe diremos como estar seguro.”

Fan e seus colegas relatam seu novo método em um estudo que aparece este mês no periódico IEEE Transactions on Robotics . Os coautores do estudo são os estudantes de pós-graduação do MIT Songyuan Zhang e Oswin So, bem como o ex-pós-doutorado do MIT Kunal Garg, que agora é professor assistente na Arizona State University.

Margens de shopping

Quando engenheiros projetam para segurança em qualquer sistema multiagente, eles normalmente têm que considerar os caminhos potenciais de cada agente individual com relação a todos os outros agentes no sistema. Esse planejamento de caminho em pares é um processo demorado e computacionalmente caro. E mesmo assim, a segurança não é garantida.

“Em um show de drones, cada drone recebe uma trajetória específica — um conjunto de pontos de passagem e um conjunto de tempos — e então eles essencialmente fecham os olhos e seguem o plano”, diz Zhang, o principal autor do estudo. “Como eles só sabem onde precisam estar e em que horas, se houver coisas inesperadas que aconteçam, eles não sabem como se adaptar.”

A equipe do MIT procurou, em vez disso, desenvolver um método para treinar um pequeno número de agentes para manobrar com segurança, de uma forma que pudesse ser dimensionada com eficiência para qualquer número de agentes no sistema. E, em vez de planejar caminhos específicos para agentes individuais, o método permitiria que os agentes mapeassem continuamente suas margens de segurança, ou limites além dos quais eles poderiam ser inseguros. Um agente poderia então tomar qualquer número de caminhos para realizar sua tarefa, desde que permanecesse dentro de suas margens de segurança.

Em certo sentido, a equipe diz que o método é semelhante à forma como os humanos navegam intuitivamente pelos arredores.

“Digamos que você está em um shopping realmente lotado”, explica So. “Você não se importa com ninguém além das pessoas que estão na sua vizinhança imediata, como os 5 metros ao seu redor, em termos de se locomover com segurança e não esbarrar em ninguém. Nosso trabalho adota uma abordagem local semelhante.”

Barreira de segurança

Em seu novo estudo, a equipe apresenta seu método, GCBF+, que significa “Graph Control Barrier Function”. Uma função de barreira é um termo matemático usado em robótica que calcula um tipo de barreira de segurança, ou um limite além do qual um agente tem uma alta probabilidade de ser inseguro. Para qualquer agente, essa zona de segurança pode mudar a cada momento, conforme o agente se move entre outros agentes que estão se movendo dentro do sistema.

Quando os designers calculam funções de barreira para qualquer agente em um sistema multiagente, eles normalmente têm que levar em conta os caminhos e interações potenciais com todos os outros agentes no sistema. Em vez disso, o método da equipe do MIT calcula as zonas de segurança de apenas um punhado de agentes, de uma forma que seja precisa o suficiente para representar a dinâmica de muitos outros agentes no sistema.

“Então podemos copiar e colar essa função de barreira para cada agente e, de repente, temos um gráfico de zonas de segurança que funciona para qualquer número de agentes no sistema”, diz So.

Para calcular a função de barreira de um agente, o método da equipe primeiro leva em conta o “raio de detecção” de um agente, ou quanto dos arredores um agente pode observar, dependendo de suas capacidades de sensor. Assim como na analogia do shopping, os pesquisadores assumem que o agente só se importa com os agentes que estão dentro de seu raio de detecção, em termos de se manter seguro e evitar colisões com esses agentes.

Então, usando modelos de computador que capturam as capacidades mecânicas e limites particulares de um agente, a equipe simula um “controlador”, ou um conjunto de instruções sobre como o agente e um punhado de agentes similares devem se mover. Eles então executam simulações de múltiplos agentes se movendo ao longo de certas trajetórias, e registram se e como eles colidem ou interagem de outra forma.

“Depois que tivermos essas trajetórias, podemos calcular algumas leis que queremos minimizar, como, por exemplo, quantas violações de segurança temos no controlador atual”, diz Zhang. “Então atualizamos o controlador para que ele seja mais seguro.”

Dessa forma, um controlador pode ser programado em agentes reais, o que lhes permitiria mapear continuamente sua zona de segurança com base em quaisquer outros agentes que pudessem detectar em seu entorno imediato e, então, se mover dentro dessa zona de segurança para realizar sua tarefa.

“Nosso controlador é reativo”, diz Fan. “Não planejamos um caminho com antecedência. Nosso controlador está constantemente recebendo informações sobre para onde um agente está indo, qual é sua velocidade, quão rápido outros drones estão indo. Ele está usando todas essas informações para elaborar um plano em tempo real e está replanejando todas as vezes. Então, se a situação mudar, ele sempre consegue se adaptar para permanecer seguro.”

A equipe demonstrou o GCBF+ em um sistema de oito Crazyflies — drones quadricópteros leves, do tamanho da palma da mão, que eles encarregaram de voar e trocar de posição no ar. Se os drones fizessem isso seguindo o caminho mais reto, eles certamente colidiriam. Mas depois de treinar com o método da equipe, os drones foram capazes de fazer ajustes em tempo real para manobrar uns em torno dos outros, mantendo-se dentro de suas respectivas zonas de segurança, para trocar de posição com sucesso durante o voo.

De forma similar, a equipe encarregou os drones de voar ao redor, e então pousar em Turtlebots específicos — robôs com rodas e topos semelhantes a conchas. Os Turtlebots dirigiram continuamente em um grande círculo, e os Crazyflies conseguiram evitar colisões uns com os outros enquanto faziam seus pousos.

“Usando nossa estrutura, precisamos apenas dar aos drones seus destinos em vez de toda a trajetória livre de colisões, e os drones podem descobrir como chegar aos seus destinos sem colisões”, diz Fan, que prevê que o método poderia ser aplicado a qualquer sistema multiagente para garantir sua segurança, incluindo sistemas de prevenção de colisões em shows de drones, robôs de depósito, veículos de direção autônoma e sistemas de entrega de drones.

Este trabalho foi parcialmente apoiado pela Fundação Nacional de Ciências dos EUA, pelo Laboratório Lincoln do MIT, no âmbito do programa Segurança em Regimes de Voo Acrobático (SAFR), e pela Agência de Ciência e Tecnologia de Defesa de Cingapura.

 

.
.

Leia mais a seguir