A meteorológia szuper nagy problémái
Az ország toronymagasan legerősebb szuperszámítógépe üzemel be hamarosan az Országos Meteorológiai Szolgálatnál, hogy a kutatók részletesebben modellezhessék a légköri folyamatokat, és a következő évek során pontosabb előrejelzésekhez jussunk.
Az új monstrum az Egyesült Államokból érkezik két részletben, közölte lapunkkal Dr. Temesi Tibor kereskedelmi igazgató a Silicon Computers Kft. részéről, amely a neves amerikai SGI hazai képviselete. A nyertes konfiguráció egy 144 darab, 1,5 gigahertzes és 6 megabájt L3 cache-sel rendelkező Itanium 2 processzorral, valamint 288 gigabájt memóriával szerelt SGI Altix 3700 Bx2 gép, amelyet kifejezetten szuperszámítógépes feladatok szem előtt tartásával fejlesztett ki a Silicon Graphics. A Novell SUSE Linux Enterprise Server 9 operációs rendszert futtató gép csúcsteljesítménye közel 900 gigaflops, azaz 900 milliárd matematikai művelet másodpercenként. A NIIFI-nél lévő négygépes Sun-grid 240 milliárdot teljesít. A gép első fele (72 processzor, 144 GB ram) február végén, a második része pedig májusban kerül telepítésre.
A meteorológia szuper nagy problémái
A televízióban eddig is elmondták a következő napok időjárását, miért van akkor szükség egy új, 200 millió forintos gépszörnyetegre? Az időjárás úgynevezett numerikus, azaz számszerű előrejelzése a légkört leíró bonyolult parciális differenciálegyenletrendszer megoldásán alapul. Az egyenletrendszert analitikus megoldása nem lévén közelítő módszerekkel oldjuk meg: egyrészről már magában az egyenletekben is közelitesekkel élünk, másrészről pedig a megoldást is közelítő numerikus sémák segítségével állítjuk elő, mondta el lapunknak Horányi András a Numerikus Modellező és Éghajlat-dinamikai Osztály kutatója.
A légköri jelenségek determinisztikusak ugyan, folytatta a kutató, azaz fizikai törvényekkel, matematikai egyenletekkel pontosan leírhatóak, és a pontos kiinduló állapot ismeretében elvben tökéletesen előrejelezhetőek, a rendszer viselkedése azonban kaotikus rendszerek alapvető ismérveit mutatja: a kiindulási állapotban a legkisebb eltérés is hatalmas változásokká duzzadhat rövid időn belül. Márpedig a mindenkor rendelkezésre álló adatok hibával terheltek, tette hozzá, és a számítási modelleknek ezekből kellene pontos előrejelzéseket szolgáltatniuk.
Nagyobb számítási kapacitással nagyobb felbontású adathalmazt pontosabb modellel lehet feldolgozni, azaz a végeredmény rendkívül sokat javulhat. Ráadásul a gépidő egy részét nem is az előrejelzések készítése, hanem a modellel kapcsolatos kutatások, fejlesztések foglalják le. A fejlesztésben lévő és használt modelleket folyamatosan ellenőrizni kell, hogy megbízhatóságukat teszteljék és javíthassák.
Az OMSZ ambíciója, hogy a rövid (másfél-két nap) és az ultrarövid távú (12 óráig) magyarországi előrejelzések pontosságát és megbízhatóságát drasztikusan fokozza, amihez viszont a jelenleg használt IBM Regatta rendszernél közel ötször erőteljesebb gépre van szüksége, hogy azonos idő alatt fusson majd le a számítás a javított (és számításigényesebb) modellel, mint jelenleg.
A modellek a teret egy háromdimenziós rácshálózatra bontják, ahol az egyes rácspontok képezik a kiindulási adatokat. A jelenleg alkalmazott, úgynevezett ALADIN modell a felszíni, szondás, repülőgépes és műholdas mérésekből vízszintesen 8 kilométeres sűrűségű rácsot épít fel 49 szinten. Az időjárási adatokban várható változást 5 perces időlépcsőkben becsli a modell, így egy kétnapos előrejelzés 576 lépésben fut le: ennyiszer kell újra és újra elvégezni a gépnek a számításokat, 5 644 800 adatpontra. Erre pedig pontosan naponta kétszer 1 óra áll rendelkezésre, vagyis egyórás ablakok, ahogyan az OMSZ-nél hívják. Ekkor az időzített feladatütemező a gép minden erőforrását a modell rendelkezésére bocsátja, más szoftverek azonnal felfüggesztésre kerülnek.
A pontosság fokozása érdekében a 2007-2008 magasságában bevezetésre kerülő új modell rácssűrűsége 2,5 kilométerre csökken, a szintek számát 75-re emelik, ennek megfelelően pedig 1 percre csökken egy időlépcső hossza. Ezzel azonban közel nyolcvanszoros számítási tömeget kapnánk, ami teljességgel elfogadhatatlan. Ezért az OMSZ kutatói a korábban Európa méretű lefedettséget Magyarország területére szűkítik, az előrejelzés hosszát pedig 36 órára limitálják, így végül nagyjából ötszörös arányt kapunk.
[oldal:Vásároljunk szuperszámítógépet!]
Ezt az elkövetkező 1-2 évben jelentkező számítási kapacitásigényt felmérve az OMSZ még tavaly év végén hívott meg informálisan három hazai céget, hogy az adott pénzügyi keretek között a lehető legnagyobb teljesítményű megoldással rukkoljanak elő. A meghívottak között a HP, az IBM és az SGI magyar leányai szerepeltek, melyeknek nagyjából 1 hónap állt rendelkezésükre, hogy egymást felüllicitálva fényesre csiszolják ajánlataikat.A listáról hiányzik a Sun Microsystems, ami főleg annak fényében érdekes, hogy a jelenleg legerősebb gépet ők jegyzik. Az OMSZ azonban feleslegesnek találta meghívni a vállalatot, mivel már elég intenzívnek érezte a három rivális jelentette versenyhelyzetet, miközben a NIIFI gépen végzett saját mérései alapján a Sun UltraSPARC processzorai túlságosan gyengén teljesítenek, no meg arról sem szabad megfeledkezni, hogy Európa többi meteorológiai szolgálatánál is viszonylag ritkán találunk SUN gépeket -- mondta el Horányi.
A hosszú távra szóló, 200 millió forintos közbeszerzési beruházásról nem kirakatmutatók, egy-egy specifikus feladatra kevéssé releváns ipari tesztek, hanem az OMSZ által jelenleg is éles üzemben használt két, időjárás-előrejelzést végző alkalmazásai alatt nyújtott teljesítmények alapján született meg a döntés. A HP, IBM és SGI megkapták a két szoftver milliónyi sort tartalmazó FORTRAN forráskódját, hogy azokkal finomhangolják rendszereiket. Ezt követően megkezdődött a versenyfutás a beszállítók között, melyet folytonos egymásra licitálás jellemzett, ez pedig váratlanul kedvező ajánlatokhoz vezetett, közölte Horányi a HWSW-nek adott interjújában.
Temesi úgy látja, az SGI döntően azért kerekedett felül a szoros versenyben, mert egyedül tudott ekkora feladatra ilyen alacsony áron osztott memóriás SMP-konfigurációt kínálni, amivel szemben a HP Opteron, az IBM pedig Power5 alapokra építő gépfürtökkel, más néven klaszterekkel pályázott. "Egy adott méretű feladat felett nem megfelelő a klaszter, az SMP-gépek ugyanis jobban skálázódnak" -- mondta Temesi, majd hozzátette, "a klaszter nem hatékony, erőforráspazarló architektúra. Ugyanazokat az adatokat többször kell a memóriában tárolni, a szoftvernek minden egyes gépen külön példányban kell futnia, stb."
Temesi érvelése helytállónak tűnik, ha érzékeltetjük az alulmaradt gépek kiépítettségét. Információink szerint a HP már közelebb járt a 300 Opteron processzormaghoz, míg az IBM ajánlata 200 Power5 mag és 800 gigabájt memória felett tartott. Horányi elmondása alapján bár teljesítmény terén viszonylag kiegyenlített volt a mezőny, az SGI Altixjának üzemeltetési költsége és további skálázódása sokkal bíztatóbb képet festett.
Az Altix 3700 osztott memóriás rendszerként 512 foglalatig skálázódik, amit a lassan évtizede fejlesztett NUMAlink kommunikációs technológiával ér el. A NUMAlink rendkívül alacsony késleltetést és magas sávszélességet biztosít, mely révén a processzorok villámgyorsan képesek kommunikálni egymással, valamint az egész memóriatartományhoz hozzáférni. A skálázódás így közel lineáris is lehet, a hamarosan érkező kétmagos Itanium 2 chipek esetén akár 1024 processzorig, így az OMSZ számára bőven nyújt még növekedési lehetőséget.
Az Opteron-klaszter ellen az OMSZ egyik legnyomósabb érve az extrém processzorszám volt, amely egy jövőbeni bővítéskor olyan tartományba emelkedik, ahol a használt kódok skálázódása nehezen előrejelezhető. A Power5-fürt pedig a hasonló megfontolásokon túl részben a magas fogyasztása és hőleadása miatt maradt alul. Az OMSZ becslése szerint több millió forintot kellett volna költeni a gépterem áramellátásának és hűtési berendezéseinek fejlesztésére, nem beszélve a megemelkedő üzemeltetési költségekről. Horányi szerint végül az SGI ajánlata bizonyult a legvonzóbbnak a teljesítmény, skálázhatóság és teljes birtoklási költség (TCO) figyelembevételével.
Távlatok
A rendelkezésre álló adatok pontosságának és a térbeli lefedettség kiterjedésének és sűrűségének fokozásával egyre pontosabb előrejelzéseket kapunk, a tökéletességnek azonban elvi korlátai vannak. A jelenleg alkalmazott modellek bár folyamatos nemzetközi fejlesztések eredményei, megbízhatóságuk ellenőrzése így is szakember felügyeletét követeli -- a modelek alapján előálló előrejelzéseket az előrejelző szakember hagyja jóvá vagy veti el.
Az OMSZ-ban operatív módon alkalmazott jelenlegi numerikus modellekkel nem becsüljük meg az előrejelzések bekövetkezési valószínűségeit, mivel egyetlen kiindulási állapotból determinisztikus számítások alapján működnek. Mivel azonban a kiindulási állapot elkerülhetetlenül hibákat tartalmaz, a rendszer pedig kaotikus, ezért indokolt lenne egyes forgatókönyveket valószínűsíteni. Ehhez azonban többféle (egyformán lehetséges) kiindulási állapotot kell létrehozni, és ezek mindegyikével lefuttatni a szimulációt -- 1 óra alatt. A számítógépes kapacitásigény így sokszorosára növekszik, erre pedig egyelőre nincs mód (mindazonáltal ez a terület intenzív kutatás alatt áll).
A tét nem az esti televíziós időjárásjelentésben elhangzott elnagyolt hőmérsékletek, hanem például a repülésirányítás, a pilótáknak tartott eligazítások, az energetikai vállalatok vagy a balatoni viharjelző, és katasztrófavédelmi rendszerek számára nyújtott adatok pontossága, előállításuk gyorsasága. Nagy utat kell még megtenni ahhoz, mire napokkal előre prognosztizálható lesz egy-egy helyileg kialakuló pusztító orkán, hirtelen lehűlés vagy szélsőséges csapadékmennyiség lehullása. A környezeti erők okozta károk megelőzése évente több milliárd forint megtakarítást eredményezhetne a gazdaságnak, nem beszélve az emberéletekről.
Véleménye van?
- írjon szerkesztőségünknek!