Google: adjunk meleget a szervereknek!
A Google is csatlakozott azon cégek sorához, amelyek szerint teljesen felesleges az adatközpontokat alacsony hőmérsékletre lehűteni. Néhány fok eltérésen rengeteg energiát és pénzt lehet megtakarítani az üzemeltetés során.
Csavarjuk fel a termosztátot
Az adatközpontok üzemeltetésével kapcsolatos egyik alapvető elvárás, hogy a berendezések számára 20 fok körül mozgó, alacsony páratartalmú és porszegény levegőt álljon rendelkezésre, mivel így maximalizálható azok élettartama. Ez a gondolkodás olyannyira beépült a gondolkodásba, hogy a gyakorlatban csak kevesek kérdőjelezik meg az évtizedekkel ezelőtti állapotokat tükröző eljárás létjogosultságát, ami egy olyan korszakban alakult ki, mikor az informatikai eszközök elterjedtsége alacsony, áruk pedig csillagászati volt, az energiát pedig olcsón mérték.
Az elektronikai berendezések természetesen továbbra is előnyben részesítik az alacsony üzemi hőmérsékletet, ugyanakkor a feltételek megváltoztak. Az informatika tömegessé és sztenderdizálttá vált, az árak a felsőbb kategóriás gépek esetében is hatalmasat zuhantak az elmúlt években, miközben az energiaellátás költségei folyamatosan emelkednek. Emiatt többen jutottak már arra a következtetésre, hogy az IT-eszközöknek valójában gazdaságtalan ideális környezetet biztosítani, mert még az esetleges enyhén magasabb meghibásodással járó hátrányokat is bőségesen ellensúlyozzák a megtakarítások.
Ezúttal a Google, a világ talán legnagyobb szerverparkját üzemeltető vállalata helyezkedett nyilvánosan is arra az álláspontra, hogy az adatközpontok hőmérsékletét meg kell emelni. A San Franciscóban megrendezett GreeNet konferencián a Google részéről William E. Weihl beszélt arról, az adatközpontok energiafogyasztását a legegyszerűbben úgy lehet csökkenteni, hogy nem hűtjük azokat feleslegesen. Weihl úgy szemléltette a különbséget, hogy egyes cégek adatközpontjaiban kabátban dolgoznak az alkalmazottak, míg a Google esetében rövidnadrágban és pólóban szervizelnek.
A mérnök, aki korábban a világ legnagyobb globális webes terheléselosztó szolgáltatását üzemeltető Akamainál dolgozott, közölte hogy a Google tipikusan 80 fahreinheites, vagyis 26-27 fokos hőmérsékletet tart fenn az adatközpontjaiban, szemben a sztenderdként elfogadott 20-22 fokkal. Sőt, Weihl azt is javasolja, hogy ha a berendezések magasabb üzemi környezeti hőmérsékletet is megengednek, akkor ennél többet is megengedhetünk, akár 30 Celsius fokot is - a szervereket tipikusan 35 fokos környezeti hőmérsékletre minősítik.
Kapcsoljuk le a légkondit
Ehhez kapcsolódóan Weihl azt is javasolja, hogy az idő nagy részében mellőzhető a léghűtők üzemeltetése, és helyette a külső levegő keringetésével lehet szinten tartani a hőmérsékletet. A hatékonyság fokozása érdekében a lehető legjobban el kell szeparálni egymástól a hideg és meleg folyosókat, nehogy keveredjenek. A legegyszerűbben bevezethető megoldás a hideg folyosókat egy-egy önmagát megtartó tetővel lefedni, amely a két szekrénysorra támaszkodik, a sorok végeit pedig ajtókkal vagy nehéz műanyag szalagfüggönyökkel lezárni. Ilyen megoldásokkal évek óta kísérleteznek az IT-szállítók és partnereik, ahol a nagy teljesítménysűrűségű, például blade szerverekkel megpakolt szekrények esetében pedig az extra hűtési igényt precíziósan, helyben telepített hűtőegységekkel, vagy a rackbe integrált vízhűtéses ajtókkal oldják meg.
A Google ezeket a technikákat a gyakorlatban is alkalmazza az erőteljes virtualizáció mellett, így adatközpontjai a világon leghatékonyabbak közé számítanak. A cég dolgát valószínűleg az is segíti, hogy teljesen virtualizált IT-infrastruktúrával rendelkezik, így a terhelés elosztásakor figyelembe tudja venni akár az egyes szerverek üzemi hőmérsékletét is, így a magasabb terheltségű és hőmérsékletű rackekből a kevésbé terheltek és hűvösebbekbe mozgatja át a feladatok egy részét.
Az Egyesült Államokban kidolgozott, de immár Európában és Japánban is elfogadott Power Usage Effectiveness, azaz PUE alapján a Google egyes adatközpontjaiban az IT-berendezések a teljes adatközponti fogyasztás több mint 80 százalékát, egyes esetekben pedig akár 90 százalékát képezik, vagyis a fizikai adatközponti infrastruktúra alig 10-20 százaléknyi extra energiával szolgál ki egy egységnyi fogyasztású informatikai rendszert. Felmérések szerint tavaly az iparági átlag 2,2 körül mozgott, vagyis a legtöbb helyen a fogyasztás több mint felét a támogató adatközponti infrastruktúra adja, leginkább a légkondicionálás és a légáram továbbítása.
Légkondi sem kell
Az Intel egy korábbi kutatásában odáig merészkedett, hogy közölte, még csak kondicionálni sem kell a külső levegőt a légcserés üzemben, mivel alig növekszik meg a meghibásodások száma attól, hogy ingadozik a páratartalom vagy hogy poros a levegő - küszöbértékeket kell beállítani, amelyek túllépése esetén beavatkozik a légkondicionáló rendszer. A vállalat két évvel ezelőtt végzett egy kísérletet, amelyben egy sivatagos területen üzemeltetett kisebb, több száz blade szervert működtető adatközpontot két részre osztott, 8-8 szekrénnyel. A referenciacsoport a hagyományos módon üzemelt tovább, míg a kísérleti csoportnál külső, kondicionálatlan légcserét vezetett be az Intel, és a hűtés csak akkor kapcsolt be, ha 32 fokosnál melegebb volt a külső levegő.
A 10 hónapon át folyó teszt során az idő 91 százalékában nem volt szükség hűtésre, a magasabb hőmérséklet, a por és változó páratartalom ellenére pedig 0,6 ponttal, 4,4 százalékra emelkedett csak a szervizesetek száma, miközben drasztikusan csökkent az energiaköltség. Pedig a gépek éles üzemben voltak, és folyamatosan chiptervezési feladatokat futtattak, ami átlagosan 90 százalékos terhelést jelentett, valamint a gépekhez szívott levegő jellemzői is sokszor kívül estek a megengedett határértékeken, így a hőmérséklet egyes esetekben meghaladta a 33 fokot is, miközben a páratartalom elérte a 90 százalékot, mielőtt a légkondicionáló be tudott avatkozni. Keringetéssel a hűtési fogyasztás közel 75 százalékkal volt csökkenthető, vagyis a teljes időszakban harmadára csökkent a hűtési rendszer által felvett fogyasztás, és így ennek a költsége is.