Letiltja arcfelismerő szoftverének rendőrségi használatát az Amazon
Egy éven keresztül nem használhatják az amerikai rendvédelmi szervek - elsősorban a rendőri erők - az Amazon arcfelismerő algoritmusát, a Rekognitiont.
Ideiglenesen korlátozza Rekognition nevű arcfelismerő algoritmusának használatát az Amazon. A cég tegnap bejelentette, hogy az amerikai rendőri erők számára egy éven keresztül nem engedélyezi a platform használatát - ezzel az IBM után újabb amerikai technológiai óriás hozott jelentős horderejűnek tűnő, részben politikai üzenetet is hordozó döntést a rasszizmussal kapcsolatos zavargások által felbolydult Egyesült Államokban.
Az Amazon ezzel együtt diplomatikusan nem nevezett meg semmilyen, a moratóriumot konkrétan kiváltó okot, mindössze annyit közölt a cég, hogy a következő egy évben a törvényhozásnak remélhetőleg lesz ideje arra, hogy egy átfogó, a technológia felhasználásainak kereteit pontosan megszabó szabályozást alkosson. A cég hozzátette, a Rekognition arcfelismerő platformot továbbra is használhatják majd eltűnt személyek, így elsősorban eltűnt gyermekek felkutatására.
A Gitlab mint DevSecOps platform (x) Gyere el Radovan Baćović (Gitlab, Data Engineer) előadására a november 7-i DevOps Natives meetupon.
A cég reakciója ugyanakkor egyértelmű válasz arra a faji alapú megkülönböztetés kapcsán hetek óta fellángolt amerikai zavargássorozatra, melynek kirobbantója az a brutális minneapolisi rendőri túlkapás volt, melynek során egy fekete férfi, George Floyd életét vesztette. A zavargások kezdete óta demokrata képviselők már előterjesztették a Kongresszusnak azt a rendőrség működésével kapcsolatos reformtervezetet, mely egyebek mellett megtiltja, hogy a rendőrök által viselt, vagy a gépjárművekre szerelt kamerák előzetes bírói jóváhagyás nélkül valós idejű arcfelismerést végezzenek.
Rosszmájú vélemények szerint a következő egy évben az Amazonnak arra is lesz ideje, hogy a korábban sokat bírált, bizonyos mutatóit tekintve meglehetősen pontatlannak bizonyuló Rekognition hibarátáján javítson. Egy 2018-as vizsgálat értékelésekor például kiderült, hogy a Rekognition a sötétebb bőrtónusú emberek esetében lényegesen többször téveszt, beleértve a nemek pontos meghatározását is. Az Amazon akkor vitatta az eredményeket, kiemelve, hogy más piaci megoldásokkal együtt a Rekognition folyamatos tanulási fázisban van, így pontossága sosem lehet állandó.