:

Szerző: Koi Tamás

2023. november 16. 10:18

Bemutatkoztak a Microsoft saját adatközponti processzorai

Igaznak bizonyultak a korábbi pletykák, a Microsoft tegnap hivatalosan is bejelentette, hogy saját tervezésű, AI-számítási célfeladatokat ellátó processzoron dolgozik, mely egy ARM-alapú CPU-val együtt 2024-ben jelenhet meg a cég saját adatközpontjaiban.

A Microsoft az Ignite konferencia szerdai programjának keretében bejelentette, hogy két, kifejezetten adatközponti felhasználásra fejlesztett processzorral bővíti az Azure platformot 2024-ben. A vállalat Azure Maia 100 AI-gyorsítója és az Azure Cobalt 100 ARM-alapú CPU teljesen házon belül készült azzal a céllal, hogy a Microsoft adatközpontjainak hatékonyságát növelje, illetve nem utolsósorban csökkentse a kitettséget az olyan, a piacot jelenleg uraló nagy chipgyártók felé, mint az Nvidia vagy éppen az Intel.

A két megoldás közül a Cobalt 100 a tervek szerint elsősorban az általános Azure felhőszolgáltatásokhoz (pl. virtuális gépek futtatása) lesz befogva, a 128 magos, ARM Neoverse CSS dizájnra épülő processzort jelenleg speciális tesztkörnyezetben, Teams és SQL Server munkafolyamatoknál vizsgálja a Microsoft. Az első tesztek mindenesetre biztatóan alakulnak, a cég szerint a Cobalt a kereskedelmi forgalomban elérhető ARM-alapú megoldásokhoz képest 40%-kal nagyobb teljesítményre képes, igaz, a cég sem konkrét metodikát nem közölt, sem azt, pontosan mihez hasonlítja saját CPU-ját.

ms_maia_sidekick

A Gitlab mint DevSecOps platform (x)

Gyere el Radovan Baćović (Gitlab, Data Engineer) előadására a november 7-i DevOps Natives meetupon.

A Gitlab mint DevSecOps platform (x) Gyere el Radovan Baćović (Gitlab, Data Engineer) előadására a november 7-i DevOps Natives meetupon.

A Maia 100 a Cobalttal szemben kifejezetten adatközponti AI-számításokhoz lett optimalizálva, így többek között nagy nyelvi modellek feltanítására. Az elképzelések szerint ez a chip szolgálja majd ki jelentős részben a Microsoft Azure alatt futó AI-munkafolyamatokat, így olyan cégek számára végez majd számítási háttérfolyamatokat, mint a vállalattal idén több tízmilliárd dolláros megállapodást aláíró OpenAI.

Az új AI-gyorsító teljesítményét egyelőre ugyanakkor nehéz összevetni az olyan piaci nagyágyúkkal, mint az Nvidia-féle H100 vagy éppen a most bejelentett, jövőre piacra kerülő H200 - a chipről egyelőre annyit tudni, hogy a TSMC 5 nm-es gyártósorain készül és relatíve kevés, "mindössze" 105 milliárd tranzisztorból áll majd.

A chip hűtési megoldása ugyanakkor annál érdekesebb, a Maia ugyanis nem csak a Microsoft első saját tervezésű AI-gyorsítója, hanem egyben az első olyan szerverprocesszora a cégnek, melyet teljes egészében folyadékhűtéses rendszer (melyet a felépítéséből adódóan Sidekicknek keresztelt a gyártó) tart üzemi hőmérsékleten. 

A Cobalt és a Maia koncepciója ugyanakkor csak a Microsoftnál számít újdonságnak, a nagy felhőszolgáltatók közül a Google már 2016-ban letette az alapjait saját tensor AI-gyorsítójának, az Amazon Web Services (AWS) pedig 2018-ban bemutatta saját chipjeit, a Graviton CPU-t és az Inferentia AI-processzort, 2020-ban pedig bejelentette a mesterséges intelligencia feltanítására létrehozott Trainiumot.

Éppen az AWS tapasztalatai alapján borítékolható, hogy a Cobalt bevezetése gyorsabb és sikeresebb lesz. Az ARM-alapú processzorokat tartalmazó szervermegoldásokat legalábbis a hatékonyabb működésüknek köszönhetően előszeretettel használják a felhőszolgáltatók legnagyobb ügyfelei, az AI-modellek kompatibilitás-mátrixa azonban bonyolultabbá teszi az áttérést egyik célhardverről a másikra.

Az üzemeltetői szakmát számos nagyon erős hatás érte az elmúlt években. A történet pedig messze nem csak a cloudról szól, hiszen az on-prem világ is megváltozott.

a címlapról