Os modelos na astrofísica
Simulações são muito importantes na astrofísica. Isso porque não temos contato direto com os objetos de estudo. As informações, portanto, são extraídas a partir de métodos engenhosos de observação. Pela espectroscopia, por exemplo, conseguimos entender melhor a composição química dos astros. Pela análise do movimento dos corpos, por sua vez, podemos ter informações sobre suas massas e distâncias. A estatística, em sua forma mais tradicional, contudo, trabalha com repetições. E como repetir o que acontece numa estrela distante? Na astronomia, não há ambientes controlados. O tamanho de uma amostra, em muitos casos, corresponde a poucos ou até mesmo um só dado.
Nos modelos, porém, podemos alterar parâmetros. Construir novos cenários. E explorar múltiplas versões de um objeto ou fenômeno. Uma aplicação conhecida são os problemas de N-corpos. Neles, se estuda o movimento de um sistema com muitos corpos celestes a partir da força gravitacional entre eles. A solução parece simples. Pelo fato, contudo, de que todo par de corpos interage entre si com alguma intensidade, a matemática pode ficar bastante complexa adicionando mais e mais objetos. Foi a partir de um problema assim que cientistas criaram uma nova simulação do universo. E os dados, acredite, cabem na memória de um computador.
O universo na palma da mão
O trabalho publicado na Monthly Notices of the Royal Astronomical Society e disponível na base de artigos ArXiv não foca na formação e evolução de estrelas. Isso porque a ênfase é mais ampla. A maior simulação demonstrada, chamada Uchuu, considera cerca de 2.1 trilhões de partículas massivas de matéria escura espalhadas por mais de 9 bilhões de anos-luz. Isso porque, até onde sabemos, o que chamamos de matéria escura compõe a maior parte do universo. Logo, é fundamental para a formação e aglomeração de galáxias. A resolução das simulações é tão alta que é possível distinguir os aglomerados dos halos de matéria escura que acreditamos encobrirem as galáxias. Uma simulação como essa pode ser bem útil para astrofísicos trabalhando com grandes quantidades de dados. Até agora, é também a maior já desenvolvida.
O grande feito não vem sem um custo computacional, contudo. Foram necessários 40 mil núcleos e 20 mil horas de processamento para gerar 3 petabytes de dados. Em termos mais comuns, isso seria equivalente a mais de 3 milhões de gigabytes. Usando alta compressão, contudo, a memória ocupada pôde ser reduzida para cerca de 100 terabytes. E já existem SSDs (um tipo de memória de computador) com essa quantidade de armazenamento. O preço ainda não é acessível para usuários comuns, mas previsões estimam que estarão mais presentes entre nós em um futuro próximo. Por enquanto, para a maioria de nós, podemos nos contentar em acessar os dados pela Internet.
Fonte: Socientifica
Nenhum comentário:
Postar um comentário