Az OpenAI kivonulása is szóba jöhet az európai MI-törvény miatt
Az OpenAI vezérigazgatója, Sam Altman szerint komoly technikai korlátokba ütközhet a szolgáltatás, ha megpróbál majd minden európai előírásnak megfelelni, de a végleges törvény megszületéséig még van idő.
A ChatGPT-t fejlesztő OpenAI vezérigazgatóját aggasztja Európa közelgő, a mesterséges intelligenciát átfogóan szabályozó törvénye. Sam Altman szerdán beszélt róla a University College Londonban, hogy az OpenAI természetesen megpróbál minden téren megfelelni az európai szabályozásnak, de a jelenlegi tervezet szerinte túlszabályozná a területet, aminek eredményeként a szolgáltatás akár ki is vonulhat az unióból a jövőben.
Az uniós jogalkotás május elején fogadta el a mesterséges intelligencia jövőbeni, az EU tagállamain belüli működését meghatározó keretrendszer szabálytervezetének időközben kiterjesztett verzióját (AI Act, AIA), ami az elképzelések szerint az MI-rendszerek által jelentett sajátos kockázatokat hivatott kezelni, és az első átfogó törvénycsomag lenne a területen. Jelenleg a Parlament, a Tanács és a Bizottság képviselői vitatják a törvényjavaslat végső részleteit.
A törvényhozók szigorúbb kötelezettségeket rónának az „általános célú mesterséges intelligencia rendszerek (GPAIS)" alkategóriába tartozó eszközökre, ami alá például a nyilvánosság számára is széles körben hozzáférhető ChatGPT chatbot tartozik. A javaslatok értelmében azoknak a cégeknek, amelyek olyan generatív mesterséges intelligencia eszközöket készítenek, mint a ChatGPT, vagy a Midjourney képgenerátor, nyilvánosságra kell hozniuk, hogy használtak-e szerzői joggal védett anyagokat rendszereikben, ezzel pedig nagyobb átláthatóságot kényszerítene a szolgáltatásokra.
CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.
A Bizottság közleménye szerint a rendelet szabályai megfelelően fogják kezelni az MI-rendszerek használata által jelentkező "sajátos kockázatokat", miközben az egyensúlyt figyelem előtt tartva "nem korlátozzák az innovációt". Az új szabályokat a mesterséges intelligencia időtálló meghatározása alapján valamennyi tagállamban azonos módon, közvetlenül kell alkalmazni. A kockázatalapú megközelítést bevezető szabályzat több kategóriát nevez meg, a minimálistól kezdve a magas kockázatig, így értelemszerűen az alacsony kockázatú felhasználási esetek nem igénylik a szigorúbb szabályozási kereteket, míg a magas kockázat átfogó dokumentálásra, tesztelésre és egyéb biztonsági intézkedések megtételére kötelezi a fejlesztőket.
Elfogadhatatlan kockázatúnak számítanak például az olyan MI-rendszerek, amelyek egyértelműen veszélyeztetik az emberek biztonságát, megélhetését és jogait, a rendelet értelmében be lesznek tiltva. Ide tartoznak az olyan MI-rendszerek vagy -alkalmazások, amelyek a felhasználók szabad akaratának megkerülése érdekében manipulálják az emberi viselkedést (pl. olyan játékok, amelyek hangasszisztens-szolgáltatások révén a kiskorúakat veszélyes viselkedésre ösztönzik) és olyan rendszerek, amelyek lehetővé teszik a kormányok általi „társadalmi pontozást”.
Altman szerint a törvényjavaslat jelenlegi formájában a ChatGPT és a GPT-4 nagy nyelvi modellt is magas kockázatúnak minősítheti, de a technikai korlátok miatt könnyen lehetséges, hogy nem sikerül megfeleltetni a szolgáltatást az előírtaknak. Szerinte az ideális megoldás valahol az amerikai és a szigorúbb európai megközelítés közt helyezkedne el, bár nem részletezte, hogy ez alatt mit ért pontosan.
Az átfogó uniós MI-törvény a jogászok szerint még évekbe telhet, mire hatályba léphet, de a döntéshozatal lassúsága miatt többször kritizált Brüsszel még így is viszonylag magához képest gyorsan reagál a technológia által jelentett új veszélyekre.