Második AI-gyorsítóját jelentette be a Meta
Bemutatta második generációs, kifejezetten saját célú AI-feladatok elvégzésére optimalizált gyorsítóját a Meta. Az új chipet idővel nagy nyelvi modellek feltanítására is alkalmassá kívánja tenni a vállalat.
Újabb részleteket árult el adatközponti AI-gyorsítóinak új generációjáról a Meta, melyekkel a cég tovább kívánja csökkentetni kitettségét a piac legnagyobb szereplője, az Nvidia irányába.
Az új generációs Meta Training and Inference Accelerator (MTIA) elsősorban továbbra is a Facebook, az Instagram és a WhatsApp szofisztikált ajánlórendszereit és egyéb algoritmusait szolgálja majd ki, idővel azonban nagy nyelvi modellek feltanítására is alkalmassá válhatnak a vállalat szerint.
A chip első, v1-es változatát tavaly májusban jelentette be a Meta, a kifejezetten a vállalat igényeire szabott megoldás eredetileg 2025-re készült volna csak el, ugyanakkor a processzorok mostanra már gyártásba kerültek a TSMC 5 nm-es gyártósorain.
Ünnepi mix a bértranszparenciától a kódoló vezetőkig Négy IT karrierrel kapcsolatos, érdekes témát csomagoltunk a karácsonyfa alá.
Az MTIA v2 - kódnevén Artemis - fejlesztése már javában megkezdődött az első generációs modell bejelentésekor, a v1 és a v2 megoldások közti legfontosabb különbség pedig elsősorban a memóriakapacitásban és a memória-sávszélességben testesül meg (a v2 variáns 256 MB on-chip memóriát tartalmaz, mely 1,3 GHz-en ketyeg, míg a v1 128 megabájtnyi, 800 MHz-en ketyegő memóriát integrál.
A Meta-hoz hasonló nagy technológiai cégek jelenleg sorban állnak az Nvidia általánosabb célú AI-gyorsítóiért, ám a Google-tól a Microsofton át az Amazonig bezárólag mindegyik vállalat megkezdte vagy már be is fejezte a saját infrastruktúrájába illeszkedő AI-gyorsítók fejlesztését.
A cél mindegyik esetben a mesterséges intelligencia-fejlesztéseknek rendkívüli költségigényének és a rendszerek üzemeltetési költségeinek a csökkentése.