Háromszor olcsóbb elődjénél a GPT-4 Turbo
Már áprilisig is tisztában van a világ történéseivel az OpenAI legújabb nagy nyelvi modellje, ami nem csak hogy pontosabb és naprakészebb, de olcsóbb is az ügyfelek számára.
A ChatGPT mögött álló OpenAI hétfőn tartotta meg első nagyszabású fejlesztői eseményét, ahol többek közt egy új nagy nyelvi modell (LLM) mellett az olcsóbb GPT-modellek árazását érintő módosításokat és érdekes statisztikákról szóló híreket is megosztott Sam Altman vezérigazgató, karöltve a Microsoft-vezér Satya Nadellával. A márciusban bejelentett, majd július óta elérhető GPT-4 (Generative Pre-trained Transformer 4) nagy nyelvi modell utódjaként érkező GPT-4 Turbo a startup eddigi legfejlettebb modellje.
A betanításhoz használt adathalmaz naprakészebb az elődnél, már nem csak a 2021 szeptemberig, de az idén áprilisig megtörtént eseményekkel is tisztában van a modell a válaszadáshoz, ami ugyan még mindig lehetőséget ad az elavulásra, de már jobbá teszi a helyzetet – a közelmúltban bevezetett internetes keresési képességének köszönhetően viszont a közelmúltbeli információkhoz is hozzáfér, és el tudja irányítani a felhasználót a releváns oldalakra.
Sikerült jelentősen, a sima GPT-4-hez képest négyszeresére növelni a kontextusablakot, azaz hogy meddig és milyen sok információra képes visszaemlékezni a beszélgetésekből: a Turbo esetében ez 128 ezer token, ami nagyjából egy 300 oldalas könyvnek felel meg, vagyis nagyjából ilyen hosszúságú szöveget is képes feldolgozni és summázni a modell. A korábbi verziók esetében ez még eleinte 3000 szó volt.
A Gitlab mint DevSecOps platform (x) Gyere el Radovan Baćović (Gitlab, Data Engineer) előadására a november 7-i DevOps Natives meetupon.
A frissített modell a függvényhívásban is jobban teljesít és pontosabban hajtja végre a megadott utasításokat. Képes kezelni a több feladatot kérő promptokat, és nagyobb valószínűséggel adja vissza a megfelelő függvényparamétereket. A GPT-4 Turbo előzetesét egyelőre a fizetős ügyfelek szűk köre éri el, a későbbi szélesebb körű elérhetőséggel kapcsolatban egyelőre még nem osztottak meg ütemtervet a fejlesztők.
Kedvező hír az ügyfelek számára, hogy a GPT-4 Turbo elődjénél jutányosabb áron lesz hozzáférhető: 0,01 dollárba fog kerülni 1000 bemeneti token (a szöveg vagy kód egysége, amit az LLM-k értelmezni tudnak), míg 0,03 dollárba 1000 kimeneti token, így háromszor olcsóbb, mint a GPT-4 használata. A GPT-4 legújabb verziója továbbra is fogadja a képpromptokat, szövegfelolvasó kéréseket, és integrálja az októberben bejelentett DALL-E 3 képgenerátori képességeit.
Az OpenAI közölte, hogy felelősséget vállal az ügyfelek esetleges szerzői jogi vitáiért, hasonlóan a Microsofthoz. A redmondi cég szeptember végén jelentette be, hogy a Copilot Copyright Commitment kezdeményezéssel lényegében átvállalja a szerzői jogi kötelezettségvállalást kereskedelmi ügyfeleitől, hogy védettséget biztosítson a Copilot szolgáltatások használata során felmerülő jogi követelésekkel szemben. Ez egy ígéret arra, hogy a vállalat megvédi ügyfeleit, és kifizeti az ilyen jellegű perekből eredő károk vagy egyezségek költségeit, de csak akkor, ha a felperesek "használták a termékekbe épített védőkorlátokat és tartalomszűrőket". Az OpenAI ugyanilyen programot kínál majd Copyright Shield néven, ami a ChatGPT Enterprise és az OpenAI fejlesztői platform általánosan elérhető funkcióira terjed ki.
A bevezetése után hónapokkal rekordot döntő ChatGPT-nek mára már körülbelül 100 millió heti aktív felhasználója van a cég hétfői közlése szerint, a Fortune 500-as cégek több mint 92%-a használja a platformot, szemben az augusztusi 80%-kal, olyan iparágakban, mint a pénzügyi szolgáltatások, a jogi alkalmazások vagy az oktatás.