:

Szerző: Koi Tamás

2021. április 22. 11:21

Kész az Európai Bizottság új MI-rendelete

Letette az Európai Bizottság az asztalra a mesterséges intelligencia jövőbeni, az EU tagállamain belüli működését meghatározó keretrendszer-tervezetet, mely az elképzelések szerint kezelni fogja az MI-rendszerek által jelentett sajátos kockázatokat.

Az MI felhasználásával összefüggésben jelentkező összes bizalmatlanságot eloszlatná, egyszersmind biztonságosabbá tenné a mesterséges intelligencia rendszerek használatát az Európai Bizottság ma ismertetett keretszabályozása és új intézkedési terve.

A Bizottság közleménye szerint a rendelet szabályai megfelelően fogják kezelni az MI-rendszerek használata által jelentkező "sajátos kockázatokat".

vestager_breton
a rendeletet jegyző két uniós biztos, Margrethe Vestager és Thierry breton

Az új szabályokat a mesterséges intelligencia időtálló meghatározása alapján valamennyi tagállamban azonos módon, közvetlenül kell alkalmazni. A kockázatalapú megközelítést bevezető szabályzat az alábbi kategóriákat nevezi meg:

Elfogadhatatlan kockázat: Az olyan MI-rendszerek, amelyek egyértelműen veszélyeztetik az emberek biztonságát, megélhetését és jogait, a rendelet értelmében be lesznek tiltva. Ide tartoznak az olyan MI-rendszerek vagy -alkalmazások, amelyek a felhasználók szabad akaratának megkerülése érdekében manipulálják az emberi viselkedést (pl. olyan játékok, amelyek hangasszisztens-szolgáltatások révén a kiskorúakat veszélyes viselkedésre ösztönzik) és olyan rendszerek, amelyek lehetővé teszik a kormányok általi „társadalmi pontozást”.

Magas kockázat: A magas kockázatúnak minősített MI-rendszerek közé tartoznak többek közt a kritikus infrastruktúrák, az oktatás és szakképzés, az alapvető magán- és közszolgáltatások, a bűnüldözés és az igazságszolgáltatás területén alkalmazott MI-technológiák. Ezekre forgalomba hozataluk előtt az alábbi szigorú előírások vonatkoznak majd:

  • megfelelő kockázatértékelési és -csökkentési rendszereknek kell rendelkezésre állniuk;
  • a kockázatok és a diszkriminatív eredmények minimalizálása érdekében a rendszer adatellátását biztosító adatkészleteknek kiváló minőségűeknek kell lenniük;
  • az eredmények nyomonkövethetőségének biztosítása érdekében a tevékenységeket naplózni kell;
  • részletes dokumentációnak kell rendelkezésre állnia, amely tartalmazza a rendszerrel és annak céljával kapcsolatban az összes olyan információt, amelyre a hatóságoknak szükségük van a rendszer megfelelőségének értékeléséhez;
  • a felhasználókat egyértelműen és megfelelően tájékoztatni kell;
  • megfelelő emberi felügyeleti intézkedésekre van szükség a kockázat minimalizálása érdekében;
  • a rendszert nagy fokú megbízhatóság, biztonság és pontosság kell, hogy jellemezze.

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata!

A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

Ezen belül az összes távoli biometrikus azonosító rendszer magas kockázatúnak minősül és szigorú követelmények hatálya alá tartozik. A nyilvánosan hozzáférhető helyeken történő, valós idejű, bűnüldözési célú felhasználásuk főszabály szerint tilos lesz. Ez alól néhány szigorúan meghatározott, korlátozott és szabályozott kivételt határozott meg a Bizottság (például amikor eltűnt gyermek felkutatásához, konkrét és közvetlen terrorfenyegetés megelőzéséhez, vagy egy egy súlyos bűncselekmény elkövetőjének vagy gyanúsítottjának felderítéséhez, felkutatásához, azonosításához vagy büntetőeljárás alá vonásához az MI feltétlenül szükséges). Az ilyen felhasználást bírói vagy más független szervnek kell engedélyeznie, és az időtartam, a földrajzi hatókör és a lekérdezett adatbázisok tekintetében bizonyos korlátozások vonatkoznak rá.

Korlátozott kockázat, azaz egyedi átláthatósági kötelezettség alá tartozó MI-rendszerek: Az ilyen MI-rendszerek, például a csevegőrobotok használatakor a felhasználóknak tisztában kell lenniük azzal, hogy egy géppel kommunikálnak, és ezen információ alapján dönthetnek arról, hogy folytatják vagy abbahagyják az adott tevékenységet.

Minimális kockázat: A jogszabályjavaslat lehetővé teszi az olyan alkalmazások szabad használatát, mint a mesterséges intelligencián alapuló videojátékok vagy a spamszűrők. A mesterségesintelligencia-rendszerek túlnyomó többsége ebbe a kategóriába tartozik. A rendelettervezet itt nem avatkozik be, mivel ezek a mesterségesintelligencia-rendszerek csak minimális kockázatot jelentenek a polgárok jogaira vagy biztonságára nézve.

A Bizottság azt javasolja, hogy az új szabályokat az illetékes nemzeti piacfelügyeleti hatóságok felügyeljék, a mesterséges intelligenciával foglalkozó európai testület létrehozása pedig a várakozások szerint meg fogja könnyíteni a szabályok végrehajtását, valamint ösztönözni fogja a mesterséges intelligenciára vonatkozó szabványok kidolgozását. Emellett a Bizottság a nem magas kockázatú mesterséges intelligenciára vonatkozóan önkéntes magatartási kódexek kidolgozását, a felelősségteljes innováció elősegítése érdekében pedig szabályozási tesztkörnyezetek kialakítását javasolja.

Az Európai Parlamentnek és a tagállamoknak rendes jogalkotási eljárás keretében kell elfogadniuk a mesterséges intelligenciára és a gépipari termékekre vonatkozó európai megközelítésről szóló bizottsági javaslatokat. Elfogadásukat követően a rendeletek az EU egészében közvetlenül alkalmazandók lesznek. 

November 25-26-án 6 alkalmas K8s security és 10 alkalmas, a Go és a cloud native szoftverfejlesztés alapjaiba bevezető képzéseket indítunk. Az élő képzések órái utólag is visszanézhetők, és munkaidő végén kezdődnek.

a címlapról