Új korszak nyílik az MI-szabályozásban
A hétvégén megszületett a politikai konszenzus az Európai Parlament és a Tanács között a nemzetközösség mesterséges intelligenciák működését szabályozó rendeletéről, ezzel az EU elsőként szabályozhatja ezt az utóbbi egy-két évben a döntéshozókat, politikusokat, jogászokat és technológiai szakembereket egyaránt komoly kihívás elé állító területet.
Pénteken maratoni tárgyalássorozatot követően megszületett a politikai konszenzus az Európai Unió új mesterséges intelligencia rendeletéről (AI Act, azaz AIA), melynek előkészítése már jóval azelőtt, 2021-ben elkezdőtött, hogy a ChatGPT-hez hasonló nagy nyelvi modellek és eszközök komolyabb áttörést értek volna el vagy egyáltalán megjelentek volna.
A múlt heti tárgyalások során elsősorban a német, francia és olasz küldöttséget kellett meggyőzni arról, hogy a terület szabályozására elengedhetetlenül szükség van, nem lehet egyfajta etikai kódexszé puhítani, melyet a piaci szereplők kvázi önszabályozásra használnak majd.
Ünnepi mix a bértranszparenciától a kódoló vezetőkig Négy IT karrierrel kapcsolatos, érdekes témát csomagoltunk a karácsonyfa alá.
A három, jelentős befolyással bíró tagállam elsősorban azt igyekezett hangsúlyozni, hogy egy átfogó AI-szabályozással Európa versenyhátrányba kerülhetne más régiókkal, így elsősorban az Egyesült Államokkal és Kínával szemben - Németországban és Franciaországban működnek egyben Európa legnagyobb nevű AI-startupjai is (DeepL, Mistral AI), melyek működését alapjaiban befolyásolná a jogszabály.
Az AIA a 2021-es bizottsági előterjesztéshez képest alapjaiban keveset változott, így megmaradt a mesterséges intelligencia rendszerek alapvető kategorizálása, mely különböző kockázati besorolások alapján rendszerezi az AI-alapú megoldásokat.
A magas kockázatúnak minősített MI-rendszerek közé tartoznak többek közt a kritikus infrastruktúrák, az oktatás és szakképzés, az alapvető magán- és közszolgáltatások, a bűnüldözés és az igazságszolgáltatás területén alkalmazott MI-technológiák. Ezekre forgalomba hozataluk előtt az alábbi szigorú előírások vonatkoznak majd:
- megfelelő kockázatértékelési és -csökkentési rendszereknek kell rendelkezésre állniuk;
- a kockázatok és a diszkriminatív eredmények minimalizálása érdekében a rendszer adatellátását biztosító adatkészleteknek kiváló minőségűeknek kell lenniük;
- az eredmények nyomonkövethetőségének biztosítása érdekében a tevékenységeket naplózni kell;
- részletes dokumentációnak kell rendelkezésre állnia, amely tartalmazza a rendszerrel és annak céljával kapcsolatban az összes olyan információt, amelyre a hatóságoknak szükségük van a rendszer megfelelőségének értékeléséhez;
- a felhasználókat egyértelműen és megfelelően tájékoztatni kell;
- megfelelő emberi felügyeleti intézkedésekre van szükség a kockázat minimalizálása érdekében;
- a rendszert nagy fokú megbízhatóság, biztonság és pontosság kell, hogy jellemezze.
A egyedi átláthatósági kötelezettség alá tartozó, korlátozott kockázatú AI-rendszerek esetében a jogszabály elsősorban a jelenleginél jóval transzparensebb működést követel meg, így itt is rendelkezésre kell álljanak bizonyos, a modellek működési hátterét leíró technológiai dokumentációk, biztosított kell legyen a megfelelőség az EU további jogszabályi követelményeivel (elsősorban a szerzői jogi, adatvédelmi szabályozás tekintetében) stb. Ez a keret vonatkozik egyebek mellett a nagy nyelvi modelleket használó mesterséges intelligenciákra, beleértve a képgenerátorokra (ChatGPT, Bard, Stable Diffusion stb.)
A jogszabály emellett kimondja, mely esetekben kifejezetten tiltott az AI használata. Ezek az ún. elfogadhatatlan kockázatot jelentő rendszerek, amelyek egyértelműen veszélyeztetik az emberek biztonságát, megélhetését és jogait. Ide tartoznak az olyan MI-rendszerek vagy -alkalmazások, amelyek a felhasználók szabad akaratának megkerülése érdekében manipulálják az emberi viselkedést és olyan rendszerek, amelyek lehetővé teszik a kormányok általi „társadalmi pontozást”.
Robotzsaru és társai
A jogszabály a fentieken túl pontosan megnevezi, hogy a rendvédelmi szervek mely esetekben használhatnak mesterséges intelligenciát a felderítési, nyomozati szakaszokban. A tagállamok és a Parlament konszenzusa alapján a rendőrség és a szakszolgálatok kizárólag emberrablás, embercsempészet és szexuális kizsákmányolás valamint áldozatainak felkutatására, valamint terrorcselekmények megakadályozására használhatják a biometrikus adatokat (elsősorban képmást) feldolgozó mesterséges intelligencia megoldásokat.
Engedélyezett emellett a mesterséges intelligencia használata néhány, különösen nagy súlyú bűncselekmény (pl. gyilkosság, emberrablás, fegyveres rablás, bűnszervezet irányítása és abban való részvétel illetve környezeti bűnözés) gyanusíttottjainak felkutatásához is.
Az AIA meghatározza a jogszabályban foglaltak be nem tartásából eredő szankciók mértékét is. A jogsérelem nagyságától és az üzemeltető cég befolyásától függően a bírság minimuma 7,5 millió euró vagy a cég globális árbevételének 1,5%-a, a maximuma pedig 35 millió euró vagy a globális árbevétel 7%-a.