Gőzerővel dolgozik a Facebook automatikus moderációja
A Meta két meghatározó platformján, a Facebookon és az Instagramon dolgozó, automatizált moderációs mechanizmusok lényegesen hatékonyabban tették a dolgukat az év elején, mint a tavalyi év végén.
Minden korábbinál hatékonyabban végzi a közösségi szolgáltatások szabályzatába ütköző tartalmak eltávolítását a Meta a céghez tartozó két platformon, a Facebookon és az Instagramon - derül ki a vállalat rendszeresen kiadott negyedéves átláthatósági jelentéséből. A változás legfőképpen a Facebook esetében szembeötlő, ahol közel kétszer annyi erőszakot ábrázoló tartalmat távolítottak el az idei első negyedévben, mint tavaly év végén.
A jelentés szerint az év első háromhónapos időszakában a Facebookról 21,7 millió erőszakos cselekedetet ábrázoló vagy erőszakos cselekedetre buzdító tartalmat távolítottak el, míg az Instagram esetében jóval kisebb, negyedéves szinten mintegy 2,7 millió az ilyen posztok száma.
A cég szerint a szabálysértő posztok több mint 98%-át még azelőtt eltávolították az oldalról, hogy azokat bárki jelezte volna a moderáció számára.
Machine recruiting: nem biztos, hogy szeretni fogod Az AI visszafordíthatatlanul beépült a toborzás folyamatába.
Mindez a Meta szerint elsősorban a proaktív tartalomszűrési rendszeren végzett fejlesztéseknek köszönhető, melynek olykor olyan posztok is áldozatul esnek, melyek valójában nem ütköznek az oldal(ak) szabályzatába. A cég az első negyedévben összességében 756 ezer posztot tett újra elérhetővé, miután a szerző fellebbezése az algoritmus döntésével szemben jogosnak bizonyult.
Bár a jelentés szerint az algoritmusok egyre fejlettebbek, bizonyos, kirívó helyzetekkel továbbra is látványosan elhasal a rendszer. Ilyen volt a múlt szombati, Buffaloban történt tömegmészárlás, melyet az elkövető élőben közvetített a Facebookon, a videó pedig futótűzként járta be a közösségi médiát, így volt olyan változata, melyet a megjelenést követő kilencedik órában töröltek csak, amikor már több mint 46 ezer megosztást kapott.