Humanidades

Vendo o tabuleiro inteiro: como o Caltech está usando a IA para promover a descoberta científica
Em todo o Instituto, pesquisadores estão aprendendo que a IA pode ajudá-los a pensar maior e a fazer mais. Eles estão confiantes nos diversos papéis que a tecnologia pode desempenhar na pesquisa científica, seja cristalizando...
Por Neil Savage - 02/08/2025


Ilustração de Clément Barbé - Por Neil Savage


Há cerca de cinco anos, o matemático Sergei Gukov começou a aprender sozinho como construir as redes neurais que são a base da inteligência artificial, simplesmente para ver se elas poderiam ser úteis no âmbito da matemática pura. Ele admite agora que era cético quanto à possibilidade de as questões extremamente complexas e complexas levantadas pela matemática pura estarem ao alcance da capacidade da IA de processar informações.

Hoje, ele diz, não é mais um cético, graças ao tempo que passou aprendendo a construir essas redes neurais, no que ele acreditava ser um esforço para mostrar que elas eram irrelevantes para o tipo de trabalho em que estava envolvido. "Quando pensamos em pessoas trabalhando com matemática pura, geralmente pensamos em alguém sentado no sótão provando teoremas tão esotéricos que nenhum outro ser humano consegue entendê-los, muito menos máquinas", diz Gukov, professor John D. MacArthur de Física Teórica e Matemática do Caltech.

Em vez disso, ele provou a si mesmo que o oposto é verdadeiro. Para entender o porquê, Gukov diz que é importante reconhecer que resolver problemas matemáticos complexos pode ser considerado uma espécie de jogo. Esses problemas envolvem afirmações que os matemáticos acreditam que deveriam ser verdadeiras, e seu desafio é provar que são verdadeiras. Em outras palavras, todos esses problemas são essencialmente uma busca pelo caminho de A a B. "Conhecemos a hipótese, conhecemos o objetivo, mas o que falta é conectá-los", diz ele.

O que torna esses problemas tão difíceis é o número de passos de A a B. Enquanto uma partida média de xadrez dura cerca de 30 a 40 movimentos, esses problemas exigem soluções que levam um milhão ou mais de passos, ou movimentos. Depois de estudar redes neurais, Gukov percebeu que poderia construir um algoritmo de IA que aprendesse a jogar melhor o jogo, ou a resolver um problema específico, enquanto compete consigo mesmo. O programa começa com o conhecimento de suas condições existentes, um conjunto de regras sobre quais movimentos ele pode fazer e uma definição do que significa vencer. Em seguida, ele usa uma técnica de aprendizado de máquina chamada aprendizado por reforço, semelhante à maneira como uma pessoa pode treinar um cachorro para sentar, na qual o computador tenta um movimento e recebe feedback sobre se ele está mais próximo de seu objetivo.

Gukov e seus colegas usaram recentemente essa abordagem em um problema de décadas conhecido como conjectura de Andrews-Curtis. Eles não resolveram o problema de fato, mas conseguiram refutar dois conjuntos de contraexemplos potenciais que, se fossem verdadeiros, teriam refutado a conjectura de Andrews-Curtis. Embora muitos desses problemas matemáticos pareçam intratáveis agora, Gukov afirma que, em 10 anos, encontrar esses caminhos de A a B pode parecer tão simples quanto um computador vencer uma partida de xadrez, um feito antes considerado quase impossível. "Não sei quão provável ou improvável é, mas definitivamente há uma chance de que a IA possa dominar esse tipo de problema", afirma. "Ela desenvolve novas estratégias que são melhores do que as que os humanos conseguem fazer."

Em todo o Instituto, pesquisadores estão aprendendo que a IA pode ajudá-los a pensar maior e a fazer mais. Eles estão confiantes nos diversos papéis que a tecnologia pode desempenhar na pesquisa científica, seja cristalizando montanhas de dados em insights novos e úteis, descobrindo padrões em dados sutis demais para serem percebidos por humanos, ou usando o poder das redes neurais ou do aprendizado de máquina para agilizar a experimentação e criar novos conhecimentos, desenvolver novas terapias ou compreender o mundo e seus sistemas complexos de novas maneiras.

Anima Anandkumar, Professora Bren de Ciências da Computação e Matemática do Caltech, afirma que o Caltech assumiu um papel de liderança na concepção e implementação de novos usos para a IA. "Estou no Caltech desde 2017 e, desde então, tive muitas colaborações, inclusive com outros professores que trabalham com IA, além de colaborações interdisciplinares em todo o campus", afirma.

“O pequeno porte do Caltech e sua mentalidade aberta tornaram isso possível muito mais do que em outras universidades maiores. O impacto disso pode ser visto diretamente no trabalho realizado desde então.” O Instituto possui infraestrutura para auxiliar os laboratórios nessa transição. Anandkumar, juntamente com Yisong Yue, professor de ciências da computação e matemática, administra o AI4Science, uma iniciativa lançada em 2018 que ajuda cientistas do Instituto a descobrir quais ferramentas e recursos de IA podem ajudar a avançar em seus trabalhos. O programa é um esforço colaborativo com a Universidade de Chicago e conta com o apoio da Fundação Margot e Tom Pritzker. Sete anos depois, Anandkumar e Yue fizeram parcerias com pesquisadores principais de uma ampla variedade de disciplinas em uma dúzia de projetos nos quais a IA ajudou a obter avanços significativos. “Fundamentalmente, a IA já está transformando todo o método científico”, afirma Anandkumar.

Como parte do AI4Science, Yue ministra uma disciplina que proporciona aos alunos de doutorado uma compreensão básica de como a IA funciona e quais tipos de ferramentas de IA podem ser incorporadas em suas pesquisas. Um ponto que ele enfatiza é a necessidade de começar com dados de alta qualidade. "Os dados são o combustível para a IA", diz Yue. "A IA converte esses dados em um modelo do qual é possível extrair conhecimento." Se os pesquisadores não têm dados confiáveis, ele os ajuda a encontrá-los, seja extraindo-os da literatura científica, usando um computador para gerar dados simulados ou, de forma mais eficaz, aproveitando as medições experimentais coletadas.

IA para modelar o mundo físico

Os incêndios florestais que devastaram a região de Los Angeles em janeiro, desencadeados por um evento de vento extremo, reforçaram a importância de previsões meteorológicas mais precisas. Anandkumar e seus colegas estão trabalhando em tecnologias de IA para criar essas previsões e potencialmente salvar vidas em futuros desastres naturais.

Os modelos de previsão do tempo existentes são baseados em equações matemáticas complexas que descrevem os processos físicos que regem o comportamento da atmosfera e dos oceanos da Terra. Eles são alimentados por observações das condições atuais, como temperatura e umidade, e são executados em supercomputadores enormes que custam centenas de milhões de dólares. Anandkumar executa simulações com base nas mesmas observações, mas ignora toda a matemática e, em vez disso, treina sua rede neural usando previsões meteorológicas históricas. A IA então procura padrões em como essas previsões antigas se desenrolaram e aplica esses padrões a novas medições meteorológicas para fazer sua previsão. A IA de Anandkumar pode ser executada em uma única unidade de processamento gráfico, como as de um PC gamer doméstico, mas seus resultados são tão precisos quanto os gerados por um supercomputador.

O sistema de Anandkumar utiliza 50.000 amostras de dados meteorológicos históricos coletados em intervalos de seis horas ao longo das últimas quatro décadas. Para uma rede neural, esses dados não são muitos, então, para extrair mais valor deles, Anandkumar utiliza operadores neurais, ferramentas desenvolvidas em seu laboratório. Com base em regras sobre processos físicos, como fluxos de fluidos e conservação de massa, os operadores neurais pegam pontos de dados discretos e criam funções matemáticas contínuas, permitindo que os pesquisadores examinem fatores em um sistema, como sua dinâmica de fluidos, em escalas variadas para fornecer uma visão mais ampla do que está acontecendo do que seria possível com pontos de dados discretos.

Para eventos climáticos extremos, o sistema consegue fazer previsões precisas dias antes das previsões padrão. Por exemplo, quando o furacão Lee se formava no Atlântico em setembro de 2023, Anandkumar usou seu modelo de teste para criar uma previsão, com 10 dias de antecedência, de quando a tempestade atingiria a Nova Escócia. Enquanto isso, os modelos padrão europeus e americanos produziam gráficos que a indicavam em direção ao mar.

É importante não apenas ter previsões antecipadas e precisas para essas condições climáticas severas e perigosas, mas também compreender a incerteza nessas previsões. As autoridades podem decidir quais ações tomar com base no nível de certeza; elas podem reagir de forma diferente a, digamos, uma previsão da chegada de um furacão ao continente com 90% de confiança do que a uma com 60%. Como a IA pode produzir previsões de forma rápida e barata, a equipe de Anandkumar pode criar milhares ou até milhões de simulações, cada uma com condições ligeiramente diferentes, enquanto as previsões tradicionais em supercomputadores produzem apenas algumas dezenas. Com esses números elevados, ela pode calcular a média das previsões para ver qual resultado aparece com mais frequência, fornecendo previsões calibradas necessárias para uma intervenção precoce em situações extremas. Ela espera que a IA possa fazer o mesmo para outras condições climáticas, como os ventos que provocaram os incêndios em Los Angeles. "Se as previsões tivessem sido feitas ainda mais cedo do que foram, com níveis de confiança transmitidos ao público, as pessoas talvez pudessem ter começado a se proteger contra incêndios mais cedo", diz Anandkumar.

A mesma abordagem pode ser usada para modelar outros sistemas turbulentos, como o fluxo de plasma dentro de um reator de fusão nuclear, permitindo previsões em tempo real sobre se o fluxo pode danificar o reator ou continuar em direção à fusão. Isso poderia dar aos cientistas a capacidade de fazer ajustes em tempo real para obter uma ignição bem-sucedida. Em outros casos, poderia permitir adaptações rápidas à turbulência do ar, permitindo que os bombeiros usem um drone para monitorar e até mesmo combater um incêndio em condições nas quais pilotos humanos ficariam impedidos de voar.

Enquanto Anandkumar se concentra em previsões meteorológicas que abrangem dias, Tapio Schneider, Professor de Ciências Ambientais e Engenharia da Cátedra Theodore Y. Wu do Caltech, usa IA para lidar com a modelagem climática, que abrange séculos e inclui cenários inexistentes em dados históricos. Os modelos climáticos atuais não capturam com precisão a forma como a turbulência oceânica distribui o calor ou os efeitos da turbulência dentro das nuvens, ambos os quais afetam o sistema climático. As nuvens, de fato, são responsáveis por mais da metade da incerteza nos modelos climáticos existentes, diz Schneider, porque não há tecnologia observacional que possa medir diretamente o que está acontecendo dentro das nuvens, como a forma como o ar circundante se mistura. Isso significa que não há dados suficientes para treinar um modelo de IA diretamente.

Para lidar com as lacunas nos dados, os pesquisadores estão desenvolvendo modelos individuais desses processos de pequena escala, que podem ser adicionados aos modelos existentes para criar uma visão geral. Schneider e sua equipe entendem a física desses processos e podem usar os dados disponíveis – sobre temperatura, umidade, cobertura de nuvens e similares – para criar simulações desses processos internos. Eles usam essas simulações para pré-treinar um modelo híbrido de física/IA e, em seguida, alimentam dados observacionais reais coletados de satélites, sensores terrestres e boias oceânicas para refinar os modelos pré-treinados, tornando-os mais precisos.

“Se usarmos apenas observações da Terra, não há informações suficientes para aprender diretamente sobre os processos turbulentos”, diz Schneider. “Mas se você tiver um bom modelo pré-treinado, o ajuste fino com observações da Terra parece funcionar.”


Zhaoyi Shen, pesquisador sênior do grupo de Schneider, criou uma biblioteca com cerca de 500 simulações de nuvens para diferentes climas ao redor do mundo, juntamente com versões variadas de modelos climáticos baseados em suposições distintas. O laboratório está colaborando com o Google para expandir o banco de dados para milhares de simulações, permitindo seu uso por outros modeladores climáticos. Enquanto isso, um aluno de pós-graduação do grupo de Schneider, Andrew Charbonneau, construiu um modelo que utiliza apenas IA para prever a espessura da neve com base em parâmetros ambientais como umidade, refinando ainda mais os modelos climáticos mais amplos.

Dados limitados não são um problema para sismólogos como Zachary Ross, professor de geofísica, cujos modelos de terremotos podem aproveitar dados que remontam a décadas, bem como tantos dados novos que os pesquisadores não conseguem analisar tudo sozinhos. "Temos centenas e centenas de sensores espalhados pela Califórnia enviando dados a cada segundo", diz Ross. "Seria totalmente impossível para humanos fazer esse tipo de trabalho inteiramente à mão."

Ross e seus colegas usam essa riqueza de dados para gerar modelos computacionais baseados em IA sobre o que está acontecendo no subsolo. Eles podem até visualizar uma rede de falhas com base em leituras de como as ondas sísmicas se propagam pelo solo — uma técnica que os pesquisadores usaram para descobrir, em vez da vertical. A orientação da falha afeta o padrão de vibração que as ondas sísmicas podem produzir. Esse conhecimento, por sua vez, pode ser aplicado a códigos de construção, para que as casas possam atender a requisitos específicos que levam a construções excessivas e onerosas. Esses mesmos algoritmos podem ser aplicados a outras tecnologias que são informadas pela mecânica ondulatória, como rádio, óptica e imagens do interior do corpo humano. "Hoje, quase todas as etapas do que meu grupo de pesquisa faz têm componentes de IA em algum nível", diz Ross. "A IA mudou quase todos os aspectos do nosso trabalho."

Os estudos sísmicos de Ross também contribuem para a pesquisa de Yue, que se concentra em compreender e aprimorar a própria IA. Ao colaborar com Ross para criar modelos que visualizam a atividade sísmica subterrânea, Yue pode analisar o desempenho do sistema de IA, bem como suas deficiências. Yue também colaborou com Katie Bouman, professora associada de ciências da computação e matemática, engenharia elétrica e astronomia, para criar um sistema de IA que transformou observações astronômicas na primeira imagem do buraco negro supermassivo no centro da Via Láctea. "Poder trabalhar nesses projetos dá uma ideia de quais são os desafios fundamentais da IA", afirma Yue.

IA no Nível Molecular

Frances Arnold, professora Linus Pauling de Engenharia Química, Bioengenharia e Bioquímica e diretora do Centro de Bioengenharia Donna e Benjamin M. Rosen, agora usa redes neurais para auxiliar em seu trabalho sobre evolução dirigida, um processo de criação de enzimas que lhe rendeu o Prêmio Nobel de Química em 2018.

Para gerar novas enzimas — proteínas que podem construir novas substâncias químicas ou decompor outras — Arnold e outros engenheiros de proteínas selecionam sequências genéticas que codificam enzimas. Ao mutar e recombinar o gene que codifica a enzima, seguido de seleção artificial para as características desejadas, ela pode usar sua abordagem para "reproduzir" biomoléculas. Assim como na evolução natural, apenas as versões mais aptas sobrevivem para se reproduzir, mas são Arnold e sua equipe, não o ambiente, que determinam essa aptidão. Se a enzima estiver mais próxima de seu objetivo — como ser capaz de decompor plástico — do que sua ancestral, ela continua introduzindo mutações e buscando os descendentes mais bem-sucedidos em cada geração.

Há mais de uma dúzia de anos, com a ajuda do então cientista da computação do Caltech, Andreas Krause, Arnold começou a usar ferramentas de aprendizado de máquina — abordagens estatísticas que não necessariamente envolvem redes neurais — para descobrir quais sequências genéticas tinham maior probabilidade de produzir a próxima geração de enzimas "adequadas". Atualmente, trabalhando com Anandkumar, Arnold conta com IA generativa para criar novas sequências. Acontece que os mesmos modelos de linguagem de grande porte (LLMs) alimentados por redes neurais que permitem o ChatGPT também podem funcionar em outros materiais além de texto. Esses modelos foram originalmente treinados com bilhões de palavras — ou frações de palavras, conhecidas como tokens — e, em seguida, com a tarefa de descobrir as relações entre elas. Os LLMs usam o que aprendem para prever a palavra com maior probabilidade de suceder a anterior. Esse processo também pode funcionar em código de computador ou, neste caso, em DNA. "Modelos de linguagem de grande porte são muito óbvios de usar, considerando todas as sequências, a biblioteca da evolução coletada em bancos de dados de DNA", diz Arnold.

Usando essa ferramenta, Arnold diz que consegue imaginar o dia em que, com o apertar de um botão, um computador poderá gerar uma sequência genética para criar uma enzima que execute uma tarefa desejada sem passar pelo processo evolutivo iterativo, e essa enzima poderá então ser rapidamente sintetizada por um robô. "Fiquei maravilhosamente surpresa com os insights que os algoritmos de aprendizado de máquina obtêm a partir de dados mutacionais, que não eram óbvios para mim com um cérebro humano", diz Arnold.

Arnold também percebeu como a otimização dessas tecnologias exige mudanças nas metodologias de laboratório e de coleta de dados. "Não é possível obter os dados corretos para treinar modelos sem melhorias no método experimental", afirma. Para isso, seu laboratório desenvolveu um método para sequenciar os genes que codificam as proteínas que estão sendo estudadas, associando as sequências às funções dessas proteínas. Esses dados são então rotulados com um tipo de código de barras otimizado para uso em computadores. "Agora, estamos mudando a maneira como realizamos os experimentos para aproveitar o poder desses métodos baseados em dados."

Abordagens semelhantes podem ser relevantes para a indústria farmacêutica, onde descobrir como fabricar, por exemplo, um medicamento específico contra o câncer é uma das maiores despesas que elevam os custos. Hosea Nelson, professor de química no Caltech e pesquisador principal do Centro de Síntese Assistida por Computador (C-CAS) da Fundação Nacional de Ciências (National Science Foundation), quer ir além das proteínas para descobrir como sintetizar qualquer substância química imaginável — um feito que poderia reduzir drasticamente o investimento necessário para encontrar um medicamento eficaz e seguro.

Para criar novos medicamentos ou quaisquer outros produtos químicos, os químicos precisam descobrir as reações corretas a serem usadas.

Em essência, desenvolver qualquer reação química é como criar uma receita do zero. Mas com todas as variáveis envolvidas — diferentes ingredientes (e quantidades de cada um), a sequência de adição, o tempo de cozimento e a temperatura — milhões de receitas possíveis podem existir, e químicos humanos podem levar centenas de anos para explorá-las. Em vez disso, os pesquisadores principais do C-CAS, como Nelson e Sarah Reisman, Professora Bren de Química e Presidente da Divisão de Química e Engenharia Química da cátedra Norman Davidson, passam uma ou duas semanas no laboratório preparando fisicamente um número mais gerenciável de reações possíveis para criar uma molécula com atributos específicos. Eles então medem várias características dessas reações, como a quantidade da molécula que cada uma produz. Eles alimentam cerca de 70% das reações em uma rede neural, que usa os dados para determinar o padrão de características com maior probabilidade de produzir o resultado desejado. "O que nos interessa é usar a IA para descobrir relações que nos permitam entender melhor uma reação química", diz Nelson.

A pesquisa sobre o câncer também pode se beneficiar do apoio da IA. Por exemplo, vários esforços nessa área concentram-se em induzir o próprio sistema imunológico do corpo a atacar tumores. Isso funciona, diz Matt Thomson, professor de biologia computacional, quando as células T — um componente da resposta imune — conseguem se infiltrar nos tumores. Alguns tumores, no entanto, conseguem escapar das células T. Thomson busca maneiras, talvez com medicamentos ou edição genética, de reprogramar os tumores para que o sistema imunológico possa atacar exclusivamente o câncer.

Neste trabalho, Thomson emprega uma técnica chamada seqFISH (Hibridização In Situ por Fluorescência Sequencial), desenvolvida no laboratório de Long Cai, professor de biologia e engenharia biológica do Caltech. O SeqFISH utiliza sondas fluorescentes que se ligam e iluminam o DNA, o mRNA e as proteínas das células, fornecendo uma leitura detalhada de sua composição. Uma vez que sabe exatamente o que está nas células, Thomson solicita a uma rede neural que preveja como a alteração do DNA ou das proteínas alteraria o comportamento das células ou dos tecidos que as compõem.

Para isso, ele e seus colegas revelaram recentemente o Morpheus, uma rede neural de aprendizado profundo que prevê como alterar um tumor para torná-lo mais suscetível à imunoterapia. Uma estratégia identificada pelo Morpheus envolve alterar a quantidade de proteínas específicas expressas por três genes diferentes, aumentando a expressão em dois e diminuindo-a em um. A IA previu que isso permitiria que as células T penetrassem em tumores que antes não conseguiam penetrar. O Morpheus sugeriu alterações para células tumorais tanto no melanoma quanto no câncer colorretal, e o grupo de Thomson está buscando financiamento para trabalhar com um parceiro clínico e aplicar os resultados do computador em pesquisas clínicas. Uma abordagem semelhante também poderia levar a tratamentos para outras doenças. "O verdadeiro avanço é que o sistema de IA pode analisar muitos dados de amostras de tumores humanos e, em seguida, integrar essas informações para fazer previsões coerentes e muito específicas sobre terapias", diz Thomson. Já seria bastante difícil para os humanos descobrirem o que a reprogramação de apenas um de cada um dos 30.000 genes em uma célula realizaria. Procurar todas as combinações de três genes envolveria analisar 27 trilhões de possibilidades. "Como um ser humano analisaria esses dados para ter uma ideia do que está acontecendo e desenvolver terapias?", pergunta ele. "É impossível, mas podemos desenvolver sistemas de IA que façam o trabalho em cerca de um dia."

IA para entender o cérebro

Colin Camerer, Professor Robert Kirby de Economia Comportamental e Cátedra de Liderança e diretor do Centro Tianqiao e Chrissy Chen de Neurociência Social e de Decisão do Caltech, usa IA para obter insights sobre como as pessoas tomam decisões e formam ou abandonam hábitos. A área da economia tradicionalmente aborda essas questões observando o que as pessoas compram ou fazendo com que respondam a questionários. Camerer aprimora essas técnicas adicionando medidas mais objetivas, como rastreamento ocular para ver no que as pessoas estão realmente prestando atenção e ressonância magnética funcional (RMF) para ver quais partes do cérebro se ativam quando as pessoas se concentram em uma escolha específica. Este último esforço ganhou um impulso em 2003 com o lançamento do Centro de Imagem Cerebral do Caltech. "A ideia era pegar algo muito central que os economistas estudaram de uma certa maneira e tentar estudá-lo com um olhar novo e com máquinas melhores", diz Camerer.

Ao mapear o que acontece em redes neurais literais enquanto as pessoas jogam os jogos econômicos padrão usados para descobrir como os indivíduos fazem escolhas, os pesquisadores podem analisar medições objetivas em vez de depender de relatórios subjetivos. Mas pode ser difícil separar boas hipóteses de falsas sem a ajuda da IA. "O que o aprendizado de máquina faz de realmente bom é pegar muitas variáveis preditoras possíveis e filtrar aquelas que realmente são sólidas para fazer boas previsões", diz Camerer.

Recentemente, Camerer e sua equipe criaram um algoritmo de aprendizado de máquina para ver se conseguiam prever quanto tempo levaria para alguém desenvolver o hábito de ir à academia ou para um profissional de saúde adquirir o hábito de lavar as mãos. Embora tenham descoberto que não havia um número mágico, eles descobriram que frequentar uma academia levava cerca de seis meses para se tornar um hábito, enquanto lavar as mãos levava apenas cerca de seis semanas. O algoritmo separou quais variáveis eram importantes: a maioria dos meses não tinha valor preditivo para alguém ir à academia, embora tenha havido uma diminuição em dezembro e um aumento em janeiro. Mas o dia da semana tinha, com segunda e terça-feira sendo os dias mais prováveis. O melhor preditor foi quantos dias haviam se passado desde que alguém tinha ido à academia.

O que vem depois?

Embora os cientistas do Caltech reconheçam a promessa da IA em remodelar a forma como realizam suas pesquisas — e as perguntas que conseguem responder —, eles alertam o público para não presumir que estão simplesmente transferindo seus laboratórios para um computador. Para aproveitar ao máximo a promessa da IA, diz Nelson, são necessários pesquisadores e estudantes dispostos e capazes de explorar o que funciona e, mais importante, o que não funciona. "Há muitas habilidades técnicas e de resolução de problemas envolvidas no que fazemos", diz ele. "É algo muito físico."

Arnold acrescenta que um dos principais benefícios da IA é que ela permite aos pesquisadores a liberdade de explorar e imaginar. Em seguida, ela fornece suporte para preencher os detalhes mais baseados em dados. "É uma nova ferramenta que facilita muito o nosso trabalho", diz Arnold, "e espero que no futuro torne muito mais simples projetar esses novos catalisadores com os quais a evolução não se importou, mas que seriam úteis para nós".

 

.
.

Leia mais a seguir