Enyhülhetett az OpenAI a katonai felhasználással szemben
Eltűnt a bekezdés, ami kifejezetten tiltotta a cég technológiáinak katonai, illetve hadászati célokra történő felhasználását.
Kikerült az OpenAI felhasználási szabályzatából a cég által fejlesztett technológiák katonai célú felhasználásra vonatkozó tiltás, ami irányváltást jelezhet a startupnál. Január 10-ig az OpenAI feltételei közé tartozott, hogy a cég minden olyan tevékenységet tilt, amely a fizikai sérülés magas kockázatát rejti, kiemelve a „fegyverfejlesztést” és „katonai és háborús” tevékenységeket. A katonai alkalmazásokra vonatkozó, világosan megfogalmazott tiltás látszólag kizárta, hogy a védelmi minisztérium vagy bármely más állami szerv a saját javára használja fel a technológiát valamilyen módon fejlesztései során.
A frissült szabályzat ugyan tartja magát ahhoz, hogy a cég szolgáltatása nem használható mások, vagy akár a felhasználó saját maga felé irányuló károkozásra, és bár példaként sorolja a fegyverek fejlesztését és használatát, de eltűnt a katonai és hadviseletre vonatkozó egyértelmű általános tiltás. Ennek kapcsán többekben felmerült annak gyanúja, hogy a cég a fontos passzusok elhagyásával valójában engedményt tett a hadseregeknek, és formailag már nincs akadálya az eddig nem engedélyezett felhasználási módoknak.
A cég álláspontja szerint a módosítás a szabályzatot érintő átdolgozás része, aminek célja egyértelműbbé és átláthatóbbá tenni a feltételeit, ennek érdekében több nyelvi és formázási változtatást is eszközölt. Niko Felix, az OpenAI szóvivője szerint az univerzális alapelvek létrehozására azért volt szükség, mert a felhasználók széles köre készíthet már saját GPT-t is a GPT Store-nak köszönhetően, de a szöveg továbbra is kifejezi, hogy tilos mesterséges intelligenciáikat bármilyen más embernek "ártó" módon felhasználni, ami a katonai alkalmazásra is érvényes.
Machine recruiting: nem biztos, hogy szeretni fogod Az AI visszafordíthatatlanul beépült a toborzás folyamatába.
A szakértők a homályos fogalmazás miatt aggodalmukat fejezték ki az irányelv módosításainak lehetséges következményeivel kapcsolatban, kiemelve a katonai műveletekben való alkalmazás kockázatait. A korábbi konkrét tilalmak helyét átvevő általánosabb megfogalmazás Heidy Khlaaf, a Trail of Bits kiberbiztonsági cég mérnöki igazgatója szerint a jogi megfelelést helyezi előtérbe a biztonsággal szemben, a két policy közti fő különbség, hogy míg előbbi egyértelműen kimondja, hogy a fegyverfejlesztés, valamint a katonai és hadviselési célú felhasználás tilos, utóbbi változat több rugalmasságot biztosít a törvények betartása mellett.
A fegyverfejlesztés, katonai és hadviselési tevékenység különböző mértékben tekinthető jogszerűnek, ráadásul a nagy nyelvi modellek továbbra is hallucinálhatnak, pontatlanok lehetnek, ami kockázatot jelent. A szabályzat módosításának valós életbeli lehetséges következményei egyelőre még nem ismertek, az viszont nem jó jel, hogy az OpenAI eszközei iránt egyre élénkebb érdeklődés mutatkozik a Pentagon és amerikai hírszerző közösség részéről.
Bár egyelőre az OpenAI egyik fejlesztése sem használható arra, hogy közvetlenül megöljön valakit, de támogatói szerepet tölthet be a tevékenység végzésében, például kódírásban, a papírmunkában gyorsíthat fel folyamatokat. Lucy Suchman, a Lancaster Egyetem tudomány és technológia antropológiájának professzora szerint elképzelhető, hogy az új megfogalmazás teret hagy az OpenAI számára az operatív infrastruktúrák támogatására, mindaddig, amíg az alkalmazás nem érinti közvetlenül a szűken meghatározott fegyverfejlesztést.