Horváth Anna, Forgács-Dajka Emese, Barnaföldi Gergely Gábor (2024.12.01 - 2025.03.31)
Abstract: Kompakt csillagokat vizsgáluk Kaluza--Klein téridőben, több extra kompakt térdimenzió (d) hozzáadásával. A bővített fenomenológia modellben statikus, gömbszimmetrikus megoldásokat vizsgálunk, ahol az állapotegyenletet egy nulla hőmérsékletű, kölcsönható, többdimenziós Fermi-gáz adja. A kompakt csillagok maximális tömegét különböző modellparaméterekre számoljuk ki. Vizsgáljuk több extra dimenzió hatását egy Kaluza--Klein csillagszerkezetben. Összehasonlítjuk több extra dimenzió hatását a gerjesztési szám növelésének megfigyelési következményeivel.
Horváth Anna, Aneta Magdalena Wojnar, Barnaföldi Gergely Gábor (2024.12.01 - 2025.03.31)
Kivonat: Tömeges és nulla tömegű részecskék viselkedését vizsgáljuk erős gravitációs térben, egy extra térdimenzió bevezetése mellett. Egy Schwarzschild-szerű megoldást vizsgálunk a Klauza-Klein modellben, és annak lehetséges megfegyelési köveztkezményeit az általános reletivitáselmélethez képest. Görbületek és a határozatlansági reláció módosulhat, ami eltérő termodinamikai viselkedéshez vezet.
Legeza Örs (2023.11.01 - 2024.11.30)
Wigner Fizikai Kutatóközpont
Publikációk:
[1] Parallel implementation of the Density Matrix Renormalization Group method achieving a quarter petaFLOPS performance on a single DGX-H100 GPU node
[2] Two-dimensional quantum lattice models via mode optimized hybrid CPU-GPU density matrix renormalization group method
[3] Boosting the effective performance of massively parallel tensor network state algorithms on hybrid CPU-GPU based architectures via non-Abelian symmetries
[4] Massively Parallel Tensor Network State Algorithms on Hybrid CPU-GPU Based Architectures)
[5] Cost optimized ab initio tensor network state methods: industrial perspectives
Kivonat: Az olyan kvantumos rendszerek numerikus szimulációja, melyekben az atomi spinek vagy mozgékony elektronok közötti kölcsönhatás erős és nem lehet leírni ún. perturbációs módszerekkel a modern fizika középpontjában állnak. Ez azonban igen nagy kihívást jelent mert a számítógépes erőforrás általánosságban exponenciálisan skálázódik a rendszer méretével. Olyan algoritmusok kidolgozása, melyeknél ez polinomiális alakra hozható napjaink egyik legintenzívebben kutatott tudományterületének számít.
A sűrűségmátrix renormálási csoport (DMRG) algoritmus éppen egy ilyen módszer, aminek további nagy előnye, hogy a vonatkozó tenzor algebra a megmaradó kvantumszámok tükrében akár egymástól több millió független részfeladatra bontható. Mindez ideális környezetet biztosít MPI és GPU alapú masszív párhuzamosításhoz. A 2021-2022-es év során hibrid CPU és többszörös GPUval gyorsított alkalmazásainkkal már számos kvantumos rendszerre végeztünk szimulációkat, mely eredméneyinkből két kéziart is elérhető az arXiv-on:
[1] Massively Parallel Tensor Network State Algorithms on Hybrid CPU-GPU Based Architectures, Andor Menczer, Örs Legeza, arXiv:2305.05581 (2023)
[2] Boosting the effective performance of massively parallel tensor network state algorithms on hybrid CPU-GPU based architectures via non-Abelian symmetries, Andor Menczer, Örs Legeza, arXiv:2309.16724 (2023)
Az [1] publikációban a GPU Labor a köszönetnyilvánításban is szerepel mert az eredmények egy része a projekt első fázisa alatt készült. A jelen projektben (második fázis) ezeket kívánjuk tovább tesztelni és a hatékonysági tesztek alapján tovább optimalizálni az A100-as GPU infrastukturát használva. A tesztek eredményei alapján a [2] publikáció bizonyos adatpontjait tervezzük bővíteni.
Maller Péter\(^1\), Forgács-Dajka Emese\(^1\), Berényi Dániel\(^2\) (2024.10.01. - 2025.02.28.)
- Eötvös Loránd Tudományegyetem
- Freelancer
Kivonat: A projekt fő célja egy ismert Babcock-Leighton napdinamó modell párhuzamosítása, melynek segítségével tanulmányozható a Nap globális mágneses terének fejlődése, így a napaktivitás. A napaktivitás előrejelzése jelenleg is kihívásokat tartogat, hiszen a háttérben egy kváziperiodikus, stochasztikus folyamat húzódik. Ráadásul a mögöttes fizikát leíró dinamó a mai napig az asztrofizika nagy megoldatlan problémáinak egyike. Ez persze nem jelenti azt, hogy nincsenek elképzeléseink vagy akár modelljeink a mágneses tér fejlődésével kapcsolatban, de további vizsgálatokat és fejlesztéseket kívánnak ezek a modellek.
Az általunk készített numerikus kód alapját egy korábban megírt, több évtizede fejlesztett Fortran nyelven írt program adta, ahol a korszerűsítést több dolog is motiválta: egyrészt a sokak által, hosszú időn át írt kódban vannak redundanciák, de akár olyan részek is, melyek már nyilvánvalóan feleslegesek, másrészt a kód szerkezete, felépítése miatt nehézkes a további fejlesztés. Így elsőként az volt a célunk, hogy a munka során a korábbi kódot optimalizáljuk és refaktoráljuk, melyhez a C programozási nyelvet választottuk. Ezután szeretnénk elvégezni a kód párhuzamosítását is, melyhez a CUDA keretrendszert használjuk. A párhuzamosítás által elérhető futási idő csökkenés átfogó elemzéseket tesz lehetővé: vizsgálhatjuk a mágneses tér több komponensének fejlődését nagyobb térbeli felbontásban, de feltérképezhetjük a modell paraméterterét is. Céljaink között szerepel különböző numerikus módszerek - mint például az ADI (Alternating-Direction Implicit) és az FTCS (Forward Time-Centered Space) - összehasonlítása is. Összességében a projekt megvalósítása során szeretnénk megvizsgálni a különböző lehetőségeket, hogy kiválaszthassuk a megfelelő kompromisszumos megoldást a teljesítmény, pontosság és későbbi fejlesztések tekintetében.
Szigeti Balázs, Szapudi István, Barna Imre, Barnaföldi Gergely Gábor (2024.08.01-2024.10.30.)
Kivonat: A Hubble állandó az Univerzum tágulásának mértékét meghatározó mennyiség. Jelenleg a különböző vöröseltolódású kísérleti mérések más-más értéket adnak meg erre -- amely problémát a Hubble puzzlenek hívja a szakirodalom. Javasltunk szerint Gödel-inspirált, forgó univerzum modellben a mért értékek közötti eltérés jól magyarázható a forgás bevezetésével. Önhasonló megoldással a lassan forgó sötét-anyag modellel mindez kiszámítható, és a kapott forgásra a \(\omega_0 \simeq 2\times 10^{-3}\)~Gyr\(^{-1}\) érték adódik.
Neelkamal Mallick [1], Suraj Prasad [1], Aditya Nath Mishra [2,4], Raghunath Sahoo [1] and Gergely Gábor Barnaföldi [3] (2024.05.01 - 2024.08.31)
[1] Department of Physics, Indian Institute of Technology Indore [2] Department of Physics, School of Applied Sciences, REVA University [3] Wigner Research Center for Physics [4] Department of Physics, University Centre For Research & Development (UCRD), Chandigarh University
Kivonat: A nucleus having 4n number of nucleons, such as 8Be, 12C, 16O, etc., is theorized to possess clusters of α particles (4He nucleus). In this study, we exploit the anisotropic flow coefficients to discern the effects of an \(\alpha\)-clustered nuclear geometry w.r.t. a Woods-Saxon nuclear distribution at \(\sqrt{s_{NN}} = 7\) TeV LHC energy.
Jakovác Antal, Horváth Anna, Dudás Bence (2024.07.01-09.30)
Kivonat: A projekt keretében környezeti hang minták mesterséges intelligencia alapú vizsgálata, alkalmazott kutatásokhoz.
Dániel Léber, Ormos Mihály (2024.07.01-09.30)
Kivonat: A tanulmányban az entrópiára, mint kockázati mértékére összpontosítunk, és arra, hogy milyen szerepet játszhat az egyensúlyi eszközárazásban. A hagyományosan használt tőkeeszközárazási modellhez (CAPM) hasonlóan az entrópia is felbontható kölcsönös (pénzügyekben a tovább már nem-diverzifikálható kockázat mérőszáma) és feltételes (pénzügyekben a piaci portfólióval való egyűt mozgás mérőszáma) entrópiákra. Megvizsgáljuk, hogy mi a kapcsolat ezek és a hagyományosan használt kockázati mérőszámok, mint a szórás és a béta között. Javaslatot teszünk továbbá egy jobb illeszkedésre és az eszközárazások ismert megoldatlan anomáliáira. Az OpenBB adatbázis és Kenneth R. French adatkönyvtár felhasználásával az S&P500 indexben található egyedi részvények adatait vizsgáljuk a napi hozamok és a hozzájuk kapcsolódó különböző kockázati mértékek kiszámításához. Bemutatjuk a különböző kockázati mértékek diverzifikációs hatásait és azok időbeli stabilitását is. Összességében egy entrópia alapú új módszert vezetünk be az eszközök egyéni és rendszerszintű kockázatainak elkülönítésére. Modellünket a CAPM-modell hagyományos tesztjével is validáljuk és a regresszión alapuló eredményeinket mind mintán belül, mind mintán kívül teszteljük. Modellünk robusztusságát továbbá keresztvalidálással és időbeli csúszó ablakok használatával egyaránt értékeljük.
Zoltán Lehóczky, Márk Bartha (2024.01.01 - 05.31)
Lombiq Ltd.
Link: GPU Day Chase Study
Abstract: GPU Day is a conference organized by the Wigner Scientific Computational Laboratory that focuses on massively parallel computing, visualization, and data analysis in both scientific and industrial applications. We also presented our Hastlayer .NET hardware accelerator project many times there too.
The website serves as an information hub for these annual conferences. It was initially running on Orchard 1 DotNest, but now it was time to migrate it to Orchard Core. While these migrations always come with certain challenges due to the new features introduced in Orchard Core, we tried to keep things easy by not changing the frontend of the site, even though it's somewhat outdated.
Szabó, Vencel (ELTE); Barbola, Milán Gábor (ELTE); Méhes, Máté (ELTE); Gábor Papp (ELTE), Bíró, Gábor (Wigner); Jólesz, Zsófia (ELTE-Wigner); Dudás, Bence (ELTE-Wigner) (2024.03.01 - 2024.06.30)
Kivonat: A proton computer tomográfia (pCT) abban különbözik a "hagyományos" foton alapú tomográfiától, hogy különbözik az alapreakció: míg a pCT esetében a kis szögű Coulomb szórás a domináns reakció, addig a foton CT-ben a bejövő foton elnyelődik, és a teljes energiáját leadja. Ez a különbség teszi nehézzé a pCT-ben a kép visszaszámolását.
A projekt során a hallgatók legenerálják a pCT algoritmushoz szükséges bemenő adatokat, mely feladat során masszívan futtatják a GATE szimulációs szoftver különböző phantomokon. A richardson-Lucy algoritmus alapján próbálják meg visszaállítani a phantom képét, közben tesztelve, hogy mekkora szög- illetve pozíció felbontásra van szükség az elfogadható kép előállításához. További tervek a Richardson-Lucy algoritmus optimalizálása GPU clustrre, a számolási sebesség felgyorsítására. További terv a pCT bemenő legyártása a detektor kimenet alapján.
Kadlecsik Ádám (2023.11.01 - 2024.03.31)
Eötvös Loránd Tudományegyetem
Kivonat: Az ismert kisebb méretű, s ezért valószínűleg szilárd felszínnel rendelkező exobolygók jellemzően nagyon közel keringenek központi csillagukhoz – éppen ezzel könnyítve meg felfedezésüket a Földről illetve űreszközökről. Így keringésük mindenképpen kötött kell hogy legyen, vagyis az ilyen exobolygókon a központi csillaguk körüli keringés („év”) és a tengely körüli fordulat („nap”) időtartama megegyezik. A kötött keringés miatt a központi csillag mindig a bolygó ugyanazon oldalát világítja meg, vagyis az égitestnek létezik egy permanens nappali és éjszakai oldala. Az áramlási rendszer tehát egy olyan forgatott elrendezésben modellezhető, amelynek oldalsó, a légkör modelljéül szolgáló vízréteggel együtt forgó külső peremén előírunk azimutális irányban egy dipól-szerű hőfluxus-peremfeltételt. Mindezt kísérletileg és szimulációs módszerekkel is szeretnénk vizsgálni.