Tecnologia Científica

Novos modelos de IA treinados com base em física, e não em palavras, estão impulsionando descobertas científicas
Enquanto modelos populares de IA, como o ChatGPT, são treinados com linguagem ou fotografias, novos modelos criados por pesquisadores da colaboração Polymathic AI são treinados usando conjuntos de dados científicos reais.
Por Sarah Collins - 02/02/2026


Fundo de onda digital e código de programa - Crédito: Vertigo3d via Getty Images


Enquanto modelos populares de IA, como o ChatGPT, são treinados com linguagem ou fotografias, novos modelos criados por pesquisadores da colaboração Polymathic AI são treinados usando conjuntos de dados científicos reais. Os modelos já estão utilizando conhecimento de uma área para abordar problemas aparentemente completamente diferentes em outra.

Embora a maioria dos modelos de IA — incluindo o ChatGPT — sejam treinados com texto e imagens, uma equipe multidisciplinar, incluindo pesquisadores da Universidade de Cambridge, tem algo diferente em mente: IA treinada com física.

Recentemente, membros da colaboração Polymathic AI apresentaram dois novos modelos de IA treinados com conjuntos de dados científicos reais para lidar com problemas em astronomia e sistemas fluidos.

Os modelos — chamados Walrus e AION-1 — podem aplicar o conhecimento adquirido em uma classe de sistemas físicos a problemas completamente diferentes. Por exemplo, o Walrus pode lidar com sistemas que vão desde estrelas em explosão a sinais de Wi-Fi e ao movimento de bactérias.

Essa habilidade interdisciplinar pode acelerar as descobertas científicas e dar aos pesquisadores uma vantagem quando enfrentam amostras pequenas ou orçamentos limitados, afirmou Michael McCabe, desenvolvedor principal do Walrus e cientista pesquisador da Polymathic AI.

“Talvez você tenha uma nova física em seu cenário que sua área não está acostumada a lidar, e simplesmente não pode investir tempo analisando todos os modelos possíveis que poderiam se encaixar no seu cenário”, disse McCabe. “Nossa esperança é que o treinamento nessas classes mais amplas torne algo mais fácil de usar e com maior probabilidade de generalização para esses usuários, já que a física 'nova' para eles pode ser algo que outra área já vem lidando há algum tempo.”

A equipe da Polymathic AI anunciou recentemente o Walrus em um preprint no arXiv.org e apresentou o AION-1 na conferência NeurIPS em San Diego.

Walrus e AION-1 são "modelos fundamentais", o que significa que são treinados com conjuntos colossais de dados de treinamento provenientes de diferentes áreas de pesquisa ou experimentos. Isso difere da maioria dos modelos de IA na ciência, que são treinados com um subcampo ou problema específico em mente.

Em vez de aprender os detalhes de uma situação específica ou partir de um conjunto de equações fundamentais, os modelos de inteligência artificial aprendem a base, ou fundamento, dos processos físicos em ação. Como esses processos físicos são universais, o conhecimento adquirido pela IA pode ser aplicado a diversos campos ou problemas que compartilham os mesmos princípios físicos subjacentes. Os modelos de inteligência artificial oferecem uma série de benefícios — desde a aceleração dos cálculos até o bom desempenho em regimes com poucos dados, além da descoberta de princípios físicos comuns a diferentes áreas.

O domínio do Walrus são os fluidos e sistemas semelhantes a fluidos. O Walrus utiliza o Well — um conjunto de dados massivo compilado pela equipe da Polymathic AI, abrangendo 19 cenários diferentes e 63 campos distintos em dinâmica de fluidos. Ao todo, ele contém 15 terabytes de dados que descrevem parâmetros como densidade, velocidade e pressão em sistemas físicos tão diversos quanto a fusão de estrelas de nêutrons, ondas acústicas e mudanças nas camadas da atmosfera terrestre.

“Continuo impressionado com o fato de um modelo de fundamentos de física multidisciplinar funcionar, quanto mais neste nível”, disse o Dr. Miles Cranmer, membro da equipe da Polymathic AI , do Departamento de Matemática Aplicada e Física Teórica e do Instituto de Astronomia de Cambridge. “Essa questão é parte do que nos motivou a criar a Polymathic, e o Walrus parece um bom marco nessa direção.”

“Para mim, o Walrus representa um passo empolgante rumo à construção de um modelo de IA de propósito geral para simulações baseadas em física”, disse a Dra. Payel Mukhopadhyay, membro da equipe da Polymatic AI e também do Departamento de Matemática Aplicada e Física Teórica. “Minha esperança é que cientistas e pesquisadores de aprendizado de máquina adaptem o Walrus às suas necessidades específicas, em vez de treinarem um modelo de aprendizado de máquina do zero. E, como disponibilizamos o código e os dados em código aberto, estou ansiosa para ver o que a comunidade criará a partir disso.”

O AION-1 é treinado com dados de levantamentos astronômicos que já são gigantescos por si só, incluindo o Sloan Digital Sky Survey (SDSS) e o Gaia, contendo mais de 200 milhões de observações de estrelas, quasares e galáxias, totalizando cerca de 100 terabytes de dados. O AION-1 usa imagens, espectros e uma variedade de outras medições para aprender o máximo possível sobre objetos astronômicos. Assim, quando um cientista obtém uma imagem de baixa resolução de uma galáxia, por exemplo, o AION-1 pode extrair mais informações sobre ela, aprendidas a partir da física de milhões de outras galáxias.

AION-1 e Walrus podem usar princípios da física observados em outros casos e aplicá-los para aprender sobre algo novo, como nossos próprios sentidos. "Usar vários sentidos simultaneamente — em vez de um de cada vez — proporciona uma compreensão mais completa de uma experiência", explicou a equipe do AION-1 em uma postagem no blog sobre o projeto. "Com o tempo, o cérebro aprende associações entre a aparência, o gosto e o cheiro das coisas; portanto, se um sentido estiver indisponível, muitas vezes é possível inferir a informação ausente a partir dos outros."

Assim, quando um cientista realiza um novo experimento ou observação, ele tem um ponto de partida — um mapa de como a física se comporta em outras situações semelhantes. “É como ver muitos, muitos seres humanos”, disse Shirley Ho, investigadora principal da Polymathic AI. “Quando você conhece um novo amigo, como já conheceu muitas pessoas antes, você consegue mapear mentalmente… como essa pessoa será em comparação com todos os seus amigos anteriores.”

Os modelos fundamentais facilitam a vida dos cientistas ao otimizar o processamento de dados. Os cientistas não precisarão mais criar uma nova estrutura do zero para cada projeto ou tarefa; em vez disso, poderão começar com uma IA já treinada para usar como base. "Acredito que nossa visão para alguns desses modelos fundamentais é que eles permitam que qualquer pessoa comece com uma representação realmente poderosa dos dados em que está interessada... e ainda assim alcance precisão de ponta sem ter que construir todo esse pipeline do zero", disse Liam Parker, pesquisador principal do AION-1, da Universidade da Califórnia, Berkeley.

O objetivo deles é criar ferramentas que os cientistas possam usar em suas pesquisas diárias. "Queremos levar toda essa inteligência artificial aos cientistas que precisam dela", disse Ho.

Adaptado de um comunicado de imprensa da Fundação Simons .

 

.
.

Leia mais a seguir