:

Szerző: Dömös Zsuzsanna

2024. június 3. 12:01

Máris új AI platformot jelentett be a gázra taposó Nvidia

A világ legértékesebb chipgyártója már be is mutatta a Blackwell architektúra frissítését, a Rubin architektúrát, ami a tervek szerint az R100 gyorsító formájában debütálhat valamikor jövőre.

Az Nvidia az utóbbi másfél-két évben szürreális növekedést produkált a mesterséges intelligencia megoldások felfutásának köszönhetően, a cég rekordot rekordra halmoz amellett, hogy folyamatosan javuló, az elemzői várakozásokat rendre túlszárnyaló üzleti eredményeket szállít remek kilátások mellett, és az értékét is megtöbbszörözte az elmúlt két év során. A gyártó megkerülhetetlen tényező a generatív nagy nyelvi modellt használó mesterséges intelligencia megoldások szegmensében, hiszen hosszú évek óta az egyetlen cég, mely képes a grafikus gyorsítók piacán felépített tudásbázisának köszönhetően óriási teljesítményű AI-gyorsítókat gyártani, ráadásul kellő mennyiségben.

A chipóriás két hónapja azt is világossá tette, hogy a termékfejlesztési-kiadási ciklust felgyorsítja, így már évente fognak érkezni egymás után az újabb, nagyobb teljesítményű, hatékonyabb chipek. Ennek bizonyítéka, hogy a márciusban bemutatott Blackwell gyorsítóchipek után a cég vasárnap a tajpeji Computex alkalmából bejelentette következő generációs GPU architektúráját, a „Rubint”. A szűkszavú, nem túl sok technikai részlettel szolgáló vasárnapi bejelentés során az Nvidia egyelőre annyit osztott meg a befektetők lelkesítésére, hogy a Rubin platform új grafikus feldolgozóegységeket hoz az AI-rendszerek betanításához.

nvidia

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata!

A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

A Blackwell utódjának szánt, kifejezetten az energiahatékonyság terén nagy előrelépést ígérő generáció várhatóan 2026-ban válik elérhetővé, az R100 formájában, HBM4-es fedélzeti memóriával felvértezve, amit 8 lapkarétegből álló HBM4-es memóriachip-szendvicsek alkotnak. Emellett újdonság lesz a „Vera” elnevezésű Arm-alapú központi feldolgozóegység, ami a Vera Rubin gyorsítókártyán fog helyet kapni, és a Grace Hopper Superchipet váltja le. A Rubin Ultra gyorsítók 2027 folyamán kerülhetnek forgalomba, a megjelölést a 12 lapkarétegből álló HBM4-es memóriachip-szendvicsek miatt kapják.

A készülő csúcstechnológiás processzorokat egyébként Vera Rubin csillagászról nevezték el, aki feltárta a sötét anyag létezését. Bár a hivatalos részletek valószínűleg a következő hónapok során derülnek ki, de a Rubin platform ha minden igaz, az NVLink 6 Switch köré épül majd, így az adatátviteli sávszélesség akár a 3600 GB/s-os szintet is elérheti. Ezzel együtt egy CX9 SuperNIC komponens is elérhető lesz, ami 1600 GB/s-ig terjedő adatátviteli sávszélességet kínálhat.

A vállalat ígérete szerint évente fog  újabb, nagyobb teljesítményű, hatékonyabb chipeket piacra dobni, a korábbi lassabb, jellemzően kétéves frissítési ütemterv után. Mivel a Blackwell és a Rubin bejelentése közt kevesebb mint három hónap telt el, az Nvidia láthatóan teljesen leuralja a chipek piacán zajló versenyt a domináns pozícióért, olyan vállalatokat állítva kihívás elé, mint az AMD és az Intel. A Blackwell chipeket tartalmazó rendszerekből az Amazon, a Google, az Oracle és a Microsoft egyaránt berendelt már nagyobb mennyiségben, a gyártásuk jelenleg is tart.

A jelenlegi növekedési rátát alapul véve még a második negyedévben a világ legértékesebb tőzsdén jegyzett vállalatává léphet elő az Nvidia a befektetői optimizmus hatására, amit vélhetően csak tetézni fog a friss bejelentés.

A Computexen az AMD is egyértelművé tette, hogy az Nvidia-hoz hasonlóan a jövőben évenkénti termékfrissítési ciklus várható az adatközponti termékeknél, így a termék-ütemterven feltűnt az idén megjelenő MI325X utódja, az MI350-sorozat, mely 2025-ben érkezhet, sőt, az azt váltó, sokat sejtetően csak "Next"-nek nevezett új generációs architektúrára épülő MI400-sorozat is.

A fentiekkel együtt egyelőre kérdéses, hogy az AMD meg tudja-e törni az Nvidia brutális dominanciáját az adatközponti termékek piacán - a rivális AI-gyorsítói ma nagyjából a piac 80%-át adják és csak a legutóbbi negyedévben közel 22 milliárd dollár folyt be az Nvidia kasszájába ezekből a termékekből, míg az AMD korábban azt közölte, hogy idén nagyjából négymilliárd dolláros árbevételt remél az AI-chipekből.

November 25-26-án 6 alkalmas K8s security és 10 alkalmas, a Go és a cloud native szoftverfejlesztés alapjaiba bevezető képzéseket indítunk. Az élő képzések órái utólag is visszanézhetők, és munkaidő végén kezdődnek.

a címlapról