Pular para o conteúdo

Simulação inovadora mapeia todas as estrelas da Via Láctea pela primeira vez.

Mulher interagindo com tela grande que exibe sistema solar e galáxia em laboratório moderno.

A Via Láctea abriga mais de 100 bilhões de estrelas, e cada uma percorre uma trajetória própria - do nascimento à vida adulta e, em muitos casos, a uma morte violenta.

Por muito tempo, astrofísicos alimentaram a ambição de construir uma simulação completa da nossa galáxia: um gêmeo digital capaz de colocar à prova hipóteses sobre como as galáxias se formam, interagem e evoluem. Só que essa ideia sempre esbarrou em uma barreira prática: o custo computacional era simplesmente grande demais.

Isso mudou agora. Uma equipa liderada por Keiya Hirashima, no Centro de Ciências Teóricas e Matemáticas Interdisciplinares da RIKEN, conseguiu algo que parecia inalcançável: uma simulação que representa cada uma das 100 bilhões de estrelas ao longo de 10 mil anos de tempo galáctico.

O gargalo: simular a Via Láctea em escala de estrela por estrela

O obstáculo nunca foi apenas “tamanho”, embora os números impressionem. As melhores simulações de galáxias até aqui conseguiam lidar com cerca de 1 bilhão de massas solares, o que significa que a menor “partícula” do modelo equivalia, na prática, a um conjunto de aproximadamente 100 estrelas.

Com isso, eventos individuais de uma estrela acabavam diluídos: o que acontece numa supernova (ou noutras fases rápidas) era, em média, “engolido” pelo ruído estatístico. Para observar o comportamento de uma única estrela, é preciso avançar na simulação com passos de tempo muito pequenos, pequenos o bastante para capturar mudanças abruptas - como a explosão e a expansão do gás.

O problema é que passos de tempo menores exigem muito mais cálculo. Pelos métodos convencionais, simular a Via Láctea com resolução de estrela individual exigiria cerca de 315 horas de supercomputador para cada 1 milhão de anos de evolução galáctica.

Em termos práticos, modelar apenas 1 bilhão de anos consumiria aproximadamente 36 anos de tempo real.

E não adianta apenas “jogar mais hardware” no problema. A partir de um certo número de núcleos de processamento, a eficiência cai rapidamente, enquanto o consumo energético sobe - um ponto de rendimentos decrescentes que torna a abordagem inviável.

Inteligência artificial e supernova: o atalho que viabilizou a simulação

O avanço veio de uma combinação pouco óbvia entre inteligência artificial e simulações físicas tradicionais, apresentada na Conferência de Supercomputação deste ano.

A equipa de Hirashima apostou num modelo substituto de aprendizado profundo. Em vez de calcular, a cada passo, toda a física detalhada e rápida que ocorre após uma explosão, eles treinaram uma IA com simulações de supernovas em alta resolução, ensinando o sistema a prever como o gás se expande durante os 100 mil anos seguintes ao evento.

Na prática, esse atalho de IA “absorve” a parte mais custosa - a física de pequena escala e rápida - sem desacelerar o restante do modelo. Assim, a simulação consegue acompanhar ao mesmo tempo a dinâmica em escala de galáxia e as catástrofes estelares individuais, sem perder o fio entre essas duas realidades.

O ganho de desempenho é enorme: algo que levaria 36 anos passa a exigir 115 dias.

Testes em Fugaku e Miyabi: validação em escala sem precedentes

Para confirmar que a aceleração não sacrificou a precisão, a equipa comparou resultados em testes de grande escala usando o supercomputador Fugaku (da RIKEN) e o sistema Miyabi (da Universidade de Tóquio).

Os testes indicaram que a simulação reforçada por IA mantém resultados fiéis, agora numa escala que antes era impraticável. Em outras palavras, não se trata apenas de “rodar mais rápido”: trata-se de rodar grande e com qualidade, no limite do que a ciência computacional consegue sustentar.

O que esse tipo de simulação da Via Láctea pode destravar

Uma simulação com 100 bilhões de estrelas não é só uma demonstração de força computacional. Ela abre caminho para investigar, com muito mais detalhe, como explosões de supernova influenciam o gás interestelar, como surgem regiões de formação estelar e como processos locais se propagam até alterar estruturas globais ao longo do tempo.

Também permite estudar melhor a ligação entre fenómenos raros (mas energéticos) e o comportamento médio da galáxia - algo difícil de capturar quando cada “partícula” do modelo representa dezenas ou centenas de estrelas, apagando eventos individuais que podem ter impacto desproporcional.

Uma ideia que vai além da astrofísica

O princípio por trás do método - usar aprendizado profundo como modelo substituto para ligar escalas muito diferentes de espaço e tempo - pode mudar a forma de modelar outros sistemas complexos.

Em ciência do clima, previsão do tempo e dinâmica dos oceanos, surgem desafios semelhantes: é preciso conectar processos que vão do microscópico ao planetário, do segundo ao século. Quando partes específicas do sistema são extremamente custosas de calcular com alta fidelidade, modelos substitutos bem validados podem tornar simulações antes impossíveis em rotinas de pesquisa - e, potencialmente, em ferramentas operacionais.

Este artigo foi publicado originalmente pelo Universo Hoje. Leia o artigo original.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário