Még nincs vége az OpenAI és az olasz adatvédelmi hatóság meccsének
Az olasz adatvédelmi hatóság tavaly átmenetileg betiltotta a ChatGPT működését az országban, és bár a szolgáltatás rövid idő után ismét elérhetővé vált, átfogó vizsgálat indult az uniós adatvédelmi szabályok állítólagos megsértése miatt. Az eredmények szerint az OpenAI-nak még mindig vannak olyan gyakorlatai, amelyek sérthetik az adatvédelmi előírásokat.
Az OpenAI-ra nézve kedvezőtlenül zárult az olasz adatvédelmi hatóság (Garante) több hónapon át tartó vizsgálata: a ChatGPT-t fejlesztő startupot az európai uniós adatvédelmi rendelet (GDPR) megsértésével vádolják. A hatóság egyelőre még nem tette nyilvánossá megállapításait, de az OpenAI számára már ketyeg a 30 napos határidő, míg védekezhet a vádakkal szemben. A GDPR-sértés akár 20 millió eurós bírsággal, vagy a cég éves forgalmának akár 4 százalékát is elérheti.
A mesterségesintelligencia-modellek fejlesztői számára a pénzbírságnál súlyosabb, hogy az adatvédelmi hatóságok a jogsértések megszüntetéséhez követelhetik az adatfeldolgozás módjainak megváltoztatását, máskülönben adott szolgáltatásnak ki kell vonulnia azon tagállamokból, ahol az illetékes hatóság által kért változtatásoknak nem tud, vagy nem áll szándékában megfelelni. Az OpenAI közleménye szerint gyakorlatai összhangban állnak a GDPR-ral és más adatvédelmi törvényekkel, és aktívan dolgozik azon, hogy modelljei képzése során csökkentse a felhasznált személyes adatok mennyiségét, így készen áll együttműködni a Garantével.
Ünnepi mix a bértranszparenciától a kódoló vezetőkig Négy IT karrierrel kapcsolatos, érdekes témát csomagoltunk a karácsonyfa alá.
Az olasz hatóság tavaly március végén átmenetileg megtiltotta a ChatGPT-hez való hozzáférést az országban adatvédelmi aggályok miatt. A felügyelet nem csak az OpenAI chatbotjának blokkolását rendelte el, de azt is elkezdte vizsgálni, hogy a szolgáltatás megfelel-e az uniós általános adatvédelmi rendeletnek (GDPR), amely többek közt a személyes adatok felhasználásának, feldolgozásának és tárolásának módját szabályozza.
A hatóság a tavaly március 20-án történt adatszivárgási incidensre hivatkozott a szolgáltatás korlátozásának bejelentésekor, amikor a felhasználói beszélgetések és az előfizetős felhasználók fizetési információi is külső felek birtokába juthattak. A közlemény szerint az OpenAI-nak nincs semmilyen jogalapja a személyes adatok tömeges gyűjtésére és tárolására a platform működésének alapjául szolgáló algoritmusok „képzése” céljából. Továbbá mivel a felhasználók életkora ellenőrizhetetlen, az alkalmazás "fejlettségükhöz és tudatosságukhoz képest nem megfelelő válaszoknak teszi ki a kiskorúakat".
Annak ellenére, hogy az OpenAI akkor lépéseket tett a hatóság által felvetett néhány probléma megoldására és ismét elérhetővé tette a ChatGPT-t Olaszországban, a hatóság folytatta a feltételezett jogsértések kivizsgálását, majd mostanra jutott arra az előzetes következtetésre, hogy a szolgáltatás sérti az uniós törvényeket. Ugyan a hatóság a friss bejelentéssel nem részletezte, hogy a korábban feltételezett jogsértések közül melyeket sikerült megerősíteni a vizsgálat során, az MI-modellek betanításához gyűjtött személyes adatok feldolgozására vonatkozó jogalap lényeges pont lehet.
Az OpenAI a fokozódó szabályozói aggodalomra és figyelemre reagálva Írországban nyitotta meg első európai irodáját, és januárban bejelentette, hogy a későbbiekben az ír entitás fogja kezelni az uniós felhasználók adatait.