:

Szerző: Koi Tamás

2023. november 16. 10:18

Bemutatkoztak a Microsoft saját adatközponti processzorai

Igaznak bizonyultak a korábbi pletykák, a Microsoft tegnap hivatalosan is bejelentette, hogy saját tervezésű, AI-számítási célfeladatokat ellátó processzoron dolgozik, mely egy ARM-alapú CPU-val együtt 2024-ben jelenhet meg a cég saját adatközpontjaiban.

A Microsoft az Ignite konferencia szerdai programjának keretében bejelentette, hogy két, kifejezetten adatközponti felhasználásra fejlesztett processzorral bővíti az Azure platformot 2024-ben. A vállalat Azure Maia 100 AI-gyorsítója és az Azure Cobalt 100 ARM-alapú CPU teljesen házon belül készült azzal a céllal, hogy a Microsoft adatközpontjainak hatékonyságát növelje, illetve nem utolsósorban csökkentse a kitettséget az olyan, a piacot jelenleg uraló nagy chipgyártók felé, mint az Nvidia vagy éppen az Intel.

A két megoldás közül a Cobalt 100 a tervek szerint elsősorban az általános Azure felhőszolgáltatásokhoz (pl. virtuális gépek futtatása) lesz befogva, a 128 magos, ARM Neoverse CSS dizájnra épülő processzort jelenleg speciális tesztkörnyezetben, Teams és SQL Server munkafolyamatoknál vizsgálja a Microsoft. Az első tesztek mindenesetre biztatóan alakulnak, a cég szerint a Cobalt a kereskedelmi forgalomban elérhető ARM-alapú megoldásokhoz képest 40%-kal nagyobb teljesítményre képes, igaz, a cég sem konkrét metodikát nem közölt, sem azt, pontosan mihez hasonlítja saját CPU-ját.

ms_maia_sidekick

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata!

A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

A Maia 100 a Cobalttal szemben kifejezetten adatközponti AI-számításokhoz lett optimalizálva, így többek között nagy nyelvi modellek feltanítására. Az elképzelések szerint ez a chip szolgálja majd ki jelentős részben a Microsoft Azure alatt futó AI-munkafolyamatokat, így olyan cégek számára végez majd számítási háttérfolyamatokat, mint a vállalattal idén több tízmilliárd dolláros megállapodást aláíró OpenAI.

Az új AI-gyorsító teljesítményét egyelőre ugyanakkor nehéz összevetni az olyan piaci nagyágyúkkal, mint az Nvidia-féle H100 vagy éppen a most bejelentett, jövőre piacra kerülő H200 - a chipről egyelőre annyit tudni, hogy a TSMC 5 nm-es gyártósorain készül és relatíve kevés, "mindössze" 105 milliárd tranzisztorból áll majd.

A chip hűtési megoldása ugyanakkor annál érdekesebb, a Maia ugyanis nem csak a Microsoft első saját tervezésű AI-gyorsítója, hanem egyben az első olyan szerverprocesszora a cégnek, melyet teljes egészében folyadékhűtéses rendszer (melyet a felépítéséből adódóan Sidekicknek keresztelt a gyártó) tart üzemi hőmérsékleten. 

A Cobalt és a Maia koncepciója ugyanakkor csak a Microsoftnál számít újdonságnak, a nagy felhőszolgáltatók közül a Google már 2016-ban letette az alapjait saját tensor AI-gyorsítójának, az Amazon Web Services (AWS) pedig 2018-ban bemutatta saját chipjeit, a Graviton CPU-t és az Inferentia AI-processzort, 2020-ban pedig bejelentette a mesterséges intelligencia feltanítására létrehozott Trainiumot.

Éppen az AWS tapasztalatai alapján borítékolható, hogy a Cobalt bevezetése gyorsabb és sikeresebb lesz. Az ARM-alapú processzorokat tartalmazó szervermegoldásokat legalábbis a hatékonyabb működésüknek köszönhetően előszeretettel használják a felhőszolgáltatók legnagyobb ügyfelei, az AI-modellek kompatibilitás-mátrixa azonban bonyolultabbá teszi az áttérést egyik célhardverről a másikra.

November 25-26-án 6 alkalmas K8s security és 10 alkalmas, a Go és a cloud native szoftverfejlesztés alapjaiba bevezető képzéseket indítunk. Az élő képzések órái utólag is visszanézhetők, és munkaidő végén kezdődnek.

a címlapról