Még nagyobb tétet rak az AI-ra az Amazon
Szinte kizárólag a mesterséges intelligenciával összefüggő újdonságokról szólt idén az Amazon Web Services szokásos éves konferenciája, ahol a világ legnagyobb felhőszolgáltatója újabb, saját fejlesztésű célprocesszorokról rántotta le a leplet.
Lezajlottak az Amazon Web Services (AWS) idei re:Invent konferenciájának legfontosabb bejelentései, melyek 2023-ban természetesen az év legfelkapottabb technológiájához, a mesterséges intelligenciához kötődtek. A bemutatók alapján a világ legnagyobb felhőszolgáltatója továbbra is meghatározó szerepet szán magának a mesterséges intelligencia platformok szegmensében.
Az erre szolgáló portfólió kulcsterméke a házon belül fejlesztett, modelltanításra és feltanított modellek futtatására kihegyezett Trainium gyorsító második generációja, a Trainium2 lesz, melyről egyelőre két fontos benchmarkot közölt az Amazon: az új chip a cég szerint elődjéhez képest négyszeres teljesítményre lesz képes, kétszeresére növelt energiahatékonyság mellett, ami összességében azt eredményezi majd, hogy a programozók gyorsabban és olcsóbban tudják majd feltanítani saját AI-modelljeiket.
CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.
Szintén a rendezvényen mutatkozott be a Graviton sorozatú, általánosabb célú adatközponti CPU-k új generációja, a Graviton4, mely elődjeivel megegyezően egy kifejezetten az AWS adatközpontok igényei alapján létrehozott ARM-alapú CPU, az x86-os megoldásokhoz képest hatékonyabb energiafelhasználással. A Graviton4 az előző generációhoz képest nagyjából 30%-kal lehet gyorsabb általános célú műveletek során - ígéri az Amazon.
Bár a fenti megoldások a célfeladatok tekintetében a piacot uraló Nvidia hasonló célú chipjeinek közvetlen versenytársai lehetnek, az Amazon és az Nvidia továbbra is egymás meghatározó partnerei maradnak, így az AWS adatközpontokban egyaránt megtalálhatók lesznek a Trainium/Graviton alapú rendszerek, ahogy az Nvidia H100/H200-as és GH200-as szuperchipjei - utóbbiból első körben 16 ezret rendelt az Amazon. Hogy a két gyártó platformjai milyen jól megférnek egymás mellett, azt jól szemlélteti, hogy jelenleg több mint 50 ezer AWS-felhasználó futtatja Graviton-alapokon a rendszereit.
Az AWS riválisának sokkal inkább tekinthető a Microsoft-féle Azure, ahol éppen két hete jelentették be, hogy elkészültek az első, saját fejlesztésű adatközponti chipek, a Maia 100 AI-gyorsító és a Cobalt 100 általános célú, ARM-alapú CPU. A Microsoft az Amazonhoz hasonlóan ettől függetlenül továbbra is erősen támaszkodik az Nvidia-ra, mint egyik kulcsfontosságú adatközponti beszállítójára.
Az Amazon a fenti célhardverek mellett az idei re:Inventen bejelentette saját AI-alapú chatbotját, a Q-t, mely több mint 40 vállalati rendszerhez képes kapcsolódni (egyebek mellett Microsoft 365, Dropbox, Salesforce vagy éppen Zendesk) és egyszerűbbé tenni bizonyos munkafolyamatokat vagy éppen ügyfélszolgálati tevékenységeket. A Q ezen túlmenően képes lesz tartalmat is előállítani és módosítani, beleértve a forráskódok átírását, javítását.