Biztonsági sérülékenységekre eresztették rá a GPT-4-et
Aggasztó tendenciára mutat rá egy friss tanulmány, mely szerint már most is automatizálható AI-modellekkel az IT biztonsági sebezhetőségek kihasználhatósága. A hatékonyság egyelőre még annak függvénye, hogy mennyi nyilvánosan hozzáférhető információ lelhető fel adott sebezhetőségről a neten.
Az Illinois Egyetem Urbana-Champaign (UIUC) négy kutatója által készített tanulmány szerint elméletben adott rá a lehetőség, hogy az OpenAI GPT-4 nagy nyelvi modellje (LLM) sebezhetőségeket használjon ki a valós életben található rendszerekben. A kutatók munkája azokra a korábbi megállapításokra épül, amelyek szerint az LLM-ek felhasználhatók a webhelyek elleni támadások automatizálására sandbox környezetben, így a potenciális rosszakarók a technológiát kártékony célokra fordíthatják, például egy önmagát replikáló féreg szaporítására.
Ugyan a kibertámadók eddig főleg phishing e‑mailek előállítására, vagy néhány alapvető kártékony szoftver elkészítésére használták az LLM-eket, ez a jövőben megváltozhat - már most is automatizálhatják az IT biztonsági sebezhetőségek kihasználását, amint azokról publikus információk jelennek meg az interneten - hívja fel a figyelmet Makay József kiberbiztonsági szakértő bejegyzésében.
A szakértők 15 különféle, a CVE skálája szerint kritikusnak értékelt "one-day" sérülékenységből álló adathalmazon tesztelte a különböző LLM-ek képességeit, ami bár szerintük is kis mintát jelent, de az összefüggéseket jól szemlélteti. Tehát többek közt olyan weboldalakat, konténereket és Python csomagokat érintő sebezhetőségekkel végezték a tesztet, amelyeket ugyan a szakértők már felfedeztek és a kilétük ismert, de még nem készült hozzájuk biztonsági javítás. Fontos, hogy tizenegyet a GPT-4 kiképzésének időpontja után tettek közzé, tehát a modell nem találkozott korábban velük.
Ünnepi mix a bértranszparenciától a kódoló vezetőkig Négy IT karrierrel kapcsolatos, érdekes témát csomagoltunk a karácsonyfa alá.
A teszt során a kutatók arra jutottak, hogy a CVE kód alapján a GPT-4 képes kihasználni a sebezhetőségek 87 százalékát, amivel jelentősen felülmúlja a többi tesztelt modellt, köztük a GPT-3.5-öt, az OpenHermes-2.5-t, Mistral 7B-t, Lllama-2 Chatet. A tíz értékelt modell közül a másik kilenc egyetlen sebezhetőséget sem tudott feltörni.
A két kihasználatlan sérülékenység esetében a GPT-4 változatos okok miatt bukott el, az Apache Hertzbeatet értinő sebezhetőség leírásával például az volt a baj, hogy kínaiul írták.
Daniel Kang, az UIUC adjunktusa szerint a leginkább ijesztő, hogy a modellek fejlődését nézve a jövőbeli modellek jó eséllyel még hatékonyabban teljesíthetnek majd az ismert sérülékenységek kihasználásában, akár a script kiddieknél is jobb esélyekkel indulnak. Amikor a tesztelt AI-ágens hozzáférését megtagadták a vonatkozó CVE-leíráshoz, a siker aránya 87 százalékról mindössze 7 százalékra zuhant le a GPT-4 esetében, ennek ellenére a kutatók nem hiszik, hogy az információk hozzáféréséhez való korlátozás a jövőben hatékony útja lehetne a védekezésnek.
Kang és munkatársai kiszámolták egy sikeres LLM-ágens támadási költségét, ami exploitonként 8,8 dollárt jelentene, és majdnem háromszor annyival olcsóbb, mintha humán munkaerő végezne el egy félórás penetrációs tesztet.
Ugyan egyelőre még nincs szó arról, hogy laikus bűnözők tömegesen használnák fel az LLM-szolgáltatásokat, érdemes a vállalatoknak proaktív védekezési stratégiára átállniuk, ha nem akarnak végzetes biztonsági és reputációs veszteségeket elszenvedni – javasolja Makay.