Szintet lépett a Meta kódgeneráló MI-je
Frissítette kifejezetten kódgenerálásra fejlesztett, nyílt forráskódú MI-modelljét a Meta, ami különféle programozási nyelveken (például Python, C++, Java és PHP) képes kódot írni természetes nyelvi promptokból vagy már meglévő kódrészletekből.
Eggyel tovább lépett a Meta, és kiadta a Code Llama eddigi legjobban teljesítő verzióját, ami promptokból készít kódokat a fejlesztők számára, emellett hibakeresést tud végezni a már megírt kódokon. A Llama 2 modellre épülő, kifezetten kódolási feladatokra szabott Code Llama 70B nagy nyelvi modell (LLM) a korábbi verzióknál több lekérdezést képes kezelni, tehát a fejlesztők több promptot adhatnak meg bemenetnek és pontosabb eredményeket is kapnak. Az új modellt 1 TB-nyi kódon és kódokhoz fűződő adatokon képezték ki, a 100 000 tokenből álló kontextusablaknak köszönhetően pedig hosszabb kódsorozatokat is képes feldolgozni és generálni.
A kódgeneráló modellek funkcionális helyességét és logikáját tesztelő, 164 programozási problémával mérő HumanEval benchmark tesztjei szerint az új Llama 53 százalékos pontossággal dolgozik, ezzel pedig jobban teljesít a konkurens GPT-3.5-nél, aminek 48,1 százalékot sikerült elérnie. A GPT-4-nél ugyan 67 százalékot mértek, és a Meta technológiája ezt nem éri el, de megközelíti azt.
A Code Llama összesen négy változatban érhető el, amelyeket paraméter alapján lehet megkülönböztetni: a 7B, 13B, 34B és 70B utótaggal ellátott verziók. Ezek a modellek különféle kiszolgálási és késleltetési igényeket elégítenek ki, a 7B modell például egyetlen GPU-n is telepíthető. Míg a 34B és 70B modellek kiemelkedően teljesítenek és átfogóbb kódolási segítséget nyújtanak, addig a kisebb 7B és 13B modellek előnyben részesítik a sebességet, így alkalmasak alacsony késleltetésű feladatokra, például valós idejű műveletekre.
Ünnepi mix a bértranszparenciától a kódoló vezetőkig Négy IT karrierrel kapcsolatos, érdekes témát csomagoltunk a karácsonyfa alá.
A Code Llama 70B ingyenesen letölthető a Llama 2-vel és a korábbi Code Llama modellekkel megegyező licenc alatt, amely lehetővé teszi mind a kutatók, mind a kereskedelmi felhasználók számára a használatát és módosítását. A modell különféle platformokon és keretrendszereken keresztül érhető el és használható, például a Hugging Face, a PyTorch, a TensorFlow és a Jupyter Notebook felületein.
A Code Llama-eszközök tavaly augusztusban jelentek meg, és kutatási és kereskedelmi használatra egyaránt ingyenesek. A friss Code Llama-ból két változatot tett elérhetővé a Meta, az egyik a Python-specifikus Code Llama-Python, a másik a természetes nyelvi inputot megértő Code Llama-Instruct, utóbbi modell 67,8 pontot kapott a HumanEval tesztjén. A Code Llama 70B tartalmazza a CodeLlama-70B-Python változatot is, amelyet a Pythonra, a világ egyik legnépszerűbb és legszélesebb körben használt programozási nyelvére optimalizáltak. Ezt a változatot további 100 milliárd Python-kód tokenre oktatták, így gördülékenyebbé és pontosabbá téve a Python-kód generálását. A CodeLlama-70B-Python segítségével a fejlesztők különféle scraping, adatelemzéses, gépi tanulási (ML) és webfejlesztési feladatokat hajthatnak végre.