:

Szerző: Dömös Zsuzsanna

2022. október 3. 10:27

Megágyazott az EU az MI-vel kapcsolatos kártérítési pereknek

Első alkalommal nyújtott be javaslatot az Európai Bizottság a mesterséges intelligenciára vonatkozó nemzeti felelősségi szabályok célzott összehangolására. Az egységes szabályozás megkönnyítené az MI használatából fakadó károk károsultjai számára, hogy kártérítést kapjanak.

Új törvényekkel adna keretet az Európai Unió annak, hogy a mesterségesintelligencia-technológiákat használó vállalatok felelősségre vonhatók legyenek az általuk okozott esetleges károkért, egyértelműbb legyen a kártérítési perek indításának folyamata. A nemrég bemutatott törvényjavaslat valószínűleg néhány éven belül jogerőssé válik, és annak a szélesebbkörű törekvésnek a része, hogy az unió elébe menjen az MI által előidézhető esetleges veszélyeknek és problémáknak.

A mesterséges intelligencia felelősségéről szóló irányelv (AI Liability Directive, ALD) felhatalmazná az embereket és a vállalatokat a kártérítési per indításának lehetőségével, amennyiben egy MI-rendszer által károkozás alanyává váltak. Ezzel a technológiák fejlesztői és gyártói nem csak felelősségre vonhatóvá válnak, de egyben átláthatóbbá kell tenniük azt is, hogyan működnek rendszereik, azokat miként képezték ki. A szabályokat be nem tartó vállalatok uniós csoportos keretei pereket kockáztatnak. Így elméletileg lehetővé válhat, hogy egy álláskereső perelni tudjon, ha az önéletrajzok szűrését végző MI-rendszer diszkriminatív.

Az irányelv harmonizálni fog egyes, a termékfelelősségről szóló irányelv hatályán kívül eső követelésekre vonatkozó szabályokat, mégpedig azokban az esetekben, amikor a kárt jogellenes magatartás okozta. Ez magában foglalja például a magánélet megsértését vagy a biztonsági problémák által okozott károkat. Az új szabályok megkönnyítik például, hogy valaki kártérítést kapjon abban az esetben, ha hátrányos megkülönböztetés érte egy MI-technológiát felhasználó munkaerő-felvételi eljárás során.

ai_törvény

Machine recruiting: nem biztos, hogy szeretni fogod

Az AI visszafordíthatatlanul beépült a toborzás folyamatába.

Machine recruiting: nem biztos, hogy szeretni fogod Az AI visszafordíthatatlanul beépült a toborzás folyamatába.

A tech cégek kritikája szerint az ilyen törekvések visszavethetik az innovációt, az aktivisták szerint pedig épp hogy ennél is több kellene, mivel az MI teljesen áthatja a mindennapokat, változatos problémákat előidézve. Ezek közt említhető a közösségi oldalak algoritmusai által támogatott félretájékoztatás, az arcfelismerő rendszerek diszkriminatív jellege. A Bizottság javaslata most az Európai Parlament és a Tanács elé kerül, a két intézménynek el kell fogadnia a javaslatot ahhoz, hogy az életbe léphessen. 

A technológiai vállalatok részéről jó eséllyel intenzív lobbizás várható. Mathilde Adjutor, a CCIA technológiai lobbicsoport menedzsere szerint a törvényjavaslat különösen a szoftvertervezésre lehet kedvezőtlen hatással, mivel a fejlesztők nem csak a szoftverhibákért lehetnek felelősségre vonhatók, hanem a felhasználók mentális egészségére gyakorolt lehetséges hatások miatt is.

Ursula Pachl, az Európai Fogyasztói Szervezet főigazgató-helyettese szerint a javaslat „igazi csalódás”, mert a fogyasztókra hárítja a felelősséget annak bizonyítására, hogy egy mesterségesintelligencia-rendszer kárt okozott nekik, vagy egy mesterséges intelligencia-fejlesztő hanyag volt. A rendkívül összetett és homályos „fekete dobozos” MI-rendszerek világában gyakorlatilag lehetetlen lesz a fogyasztó számára, hogy alkalmazza az új szabályokat, nehéz lesz bizonyítani, hogy valakivel szembeni faji megkülönböztetés a kreditpontozási rendszer felállításának volt köszönhető.

A törvényjavaslat nem veszi figyelembe az MI-rendszerek által okozott közvetett károkat sem Claudia Prettner, a Future of Life Institute nonprofit szervezet EU-képviselője szerint. Egy jobb változat felelősségre vonná a vállalatokat, ha tetteik kárt okoznak anélkül, hogy szükségszerű legyen a hiba bizonyítása. Említi, hogy az MI-rendszerek gyakran egy adott célból készülnek, de aztán váratlan károkat okoznak egy másik területen: a közösségi média algoritmusait például úgy hozták létre, hogy maximalizálják a platformokon eltöltött időt, de ezzel akaratlanul is elősegítik a polarizálódást.

November 25-26-án 6 alkalmas K8s security és 10 alkalmas, a Go és a cloud native szoftverfejlesztés alapjaiba bevezető képzéseket indítunk. Az élő képzések órái utólag is visszanézhetők, és munkaidő végén kezdődnek.

a címlapról

handheld

11

Új kézi konzolon dolgozhat a Sony

2024. november 25. 12:10

Az újdonság a Portalra épülhet és PS5-ös játékokat lehetne vele mobilizálni - felhőszolgáltatás nélkül.