Pesquisadores estão debruçados sobre uma avalanche de dados produzidos por uma das maiores simulações cosmológica já realizadas na história, liderada por cientistas do Laboratório Nacional de Argonne do Departamento de Energia dos EUA. A simulação, rodada no supercomputador Titan, do Laboratório Nacional de Oak Ridge do DOE, modelou a evolução do universo, de um período de somente 50 milhões de anos depois do Big Bang, até os dias de hoje – ou seja, desde a infância do universo, até o seu estado adulto atual. No decorrer de 13.8 bilhões de anos, a matéria no universo, se agrupou formando galáxias, estrelas e planetas, mas nós não sabemos exatamente como isso aconteceu.
Essas simulações ajudam os cientistas a entenderem a energia escura, uma forma de energia que afeta a taxa de expansão do universo, incluindo a distribuição das galáxias compostas de matéria ordinária, bem como de matéria escura, um tipo misterioso de matéria que nenhum instrumento pode medir diretamente. Intensivas pesquisas do céu, realizadas com poderosos telescópios, como o Sloan Digital Sky Survey, e novo e mais detalhado, Dark Energy Survey, mostra para os cientistas onde as galáxias e as estrelas estavam quando a sua luz foi emitida pela primeira vez. E pesquisas da Microondas Cósmica de Fundo, a luz remanescente do universo quando ele tinha somente 300000 anos de vida, nos mostra como o universo começou – “muito uniforme, com aglomeração de matéria no decorrer do tempo”, disse Katrin Heitmann, uma física de Argone que liderou a simulação.
A simulação preenche o vazio temporal para mostrar como o universo pode ter se desenvolvido nesses intervalos. “A gravidade age na matéria escura, que começa a se aglomerar mais e mais, e nessas aglomerações, as galáxias se formam”, disse Heitmann. Chamada de Q Continuum, a simulação envolve meio trilhão de partículas – dividindo o universo em cubos com lados de 100000 quilômetros de comprimento. Isso faz com que ela seja uma das maiores simulações cosmológicas com essa alta resolução. Ela rodou usando mais de 90% do supercomputador. Para se ter uma perspectiva, normalmente menos de 1% do trabalho usa 90% do supercomputador Mira em Argone, disse os oficiais na Argone Leadership Computing Facility, um Escritório do DOE do Science User Facility. As equipes, nas instalações de computação de Argonne e de Oak Ridge, ajudou a adaptar o código para essa rodada em Titan.
“Essa é uma simulação muito rica”, disse Heitamnn. “Nós podemos usar esses dados para procurar por que as galáxias se aglutinam dessa maneira, bem como sobre a física fundamental da formação das suas estruturas. As análises já começaram em cima de dois e meio petabytes de dados que foram gerados, e continuarão pelos próximos anos. Os cientistas podem obter informações sobre fenômenos astrofísicos, como lentes gravitacionais fortes, fracas de cisalhamento, de aglomeração e de galáxia-galáxia. O código para rodar as simulações é chamado de Hardware/Hybrid Accelerated Cosmology Code, ou HACC, que foi escrito pela primeira vez em 2008, no momento em que os supercomputadores científicos quebravam a barreira dos petaflops (um quadrilhão de operações por segundo). O HACC é desenhado com uma flexibilidade inerente que permite rodar supercomputadores com diferentes arquiteturas.
Nenhum comentário:
Postar um comentário