Tízezer moderátort fog alkalmazni a YouTube
Úgy tűnik, hogy jövő évtől megint szigorít a YouTube a közösségi szabályzatot sértő tartalmakkal kapcsolatban. Eddig is próbálkozott a vállalat, de az alkalmazott moderátorok remélhetőleg jobban végzik majd a munkát mint eddig az algoritmusok.
Több kudarcos próbálkozás után a YouTube úgy döntött, hogy az emberi tartalomelemzőket még nagyobb súllyal alkalmazza majd a videós platformon megjelenő szélsőséges tartalmak, szabálysértő videók, trollok és nem megfelelő tartalmak mellett megjelenő hirdetések ellen. Az elmúlt egy-két évben többféle módon igyekezett a vállalat megoldani az egyre égetőbb problémát, úgy mint a YouTube Heroes moderációs programmal, a tartalomfeltöltők segítéségével, a Partnerprogram-belépés szigorításával és egyéb fejlesztésekkel, köztük gépi tanulással. Ezek szerint végül úgy döntött a cég a Facebookhoz hasonlóan, hogy az alkalmazott humán tartalomelemzők tudják a legpontosabban elvégezni a videók szűrését.
Jövőre már több mint tízezer moderátort szeretne alkalmazni a YouTube, akik átnézik és kezelik a nem megfelelő tartalmakat. Az nem derül ki pontosan, hogy ezt a munkát eddig mennyien végezték, de az elmúlt 6 hónapban 2 millió videót vizsgáltak meg a meglévő a moderátorok a videós platform közleménye szerint. A tízezres számhoz összehasonlításképp érdemes felidézni, hogy a Facebook idén a 4500 meglévő moderátora mellé 3 ezret vett fel újonnan.
A jövőben az emberi tartalomelemzők egyaránt részt vesznek majd a nem megfelelő tartalmak eltávolításában, és a gépi tanuló rendszer felkészítésében. Továbbá a tartalomelemzők feladata lesz a videókhoz tartozó kommentek felülvizsgálata, és a rendszeresen problémás tartalmakat közlő profilok felfüggesztése is. Az algoritmus folyamatosan figyeli majd, hogy a moderátorok mit hagynak jóvá és mit távolítanak el, és ez alapján fejlődik.
A Gitlab mint DevSecOps platform (x) Gyere el Radovan Baćović (Gitlab, Data Engineer) előadására a november 7-i DevOps Natives meetupon.
Ezzel párhuzamosan a YouTube is tovább tréningezi az algoritmusait, hogy azok felismerjék a szélsőséges és a szabályzatot sértő videókat. Az eddigi eredmények szerint a június óta tesztelt rendszer a videók 98 százalékát helyesen jelölte nem megfelelőnek, 150 ezer szélsőségesen erőszakos tartalmat lehetett eltávolítani a segítségével a felületről - ezek közül a videók 70 százalékát már az első 8 órában felismerte, a felét pedig a a feltöltés utáni 2 órában. Így a YouTube-vezérigazgató Susan Wojcicki szerint a rendszer munkája 180 ezer ember 40 órás munkahetével egyenértékű.
Mostantól pedig elkezdte betanítani a cég az algoritmust a gyermekvédelmi és a gyűlöletbeszédet tartalmazó videók felismerésére is. Arról viszont nem esik szó a közleményben, hogy a "nem családbarát" tartalmakat élesben jelölő, hirdetéseket eltávolító algoritmus viselkedése az elmúlt időszakban az ámokfutáshoz hasonlított, és több mint egymillió videós nyújtott be panaszt a félkész szoftver miatt. Tehát a cég gyakorlatilag a fellebbezések manuális felülvizsgálásával tréningezte ezt a rendszert. Ennek ellenére mégis átcsúsztak a szűrőn a gyerekbarátnak álcázott nem megfelelő tartalmak is.
Jövő évtől a YouTube nagyobb átláthatóságot ígér és hogy a videósok a Community Guideline alapján pontosabb képet kaphatnak majd arról, hogy milyen tartalmak engedélyezettek. Az ígéret szerint a cég rendszeres jelentéseket közöl majd az eltávolított tartalmakról, hozzászólásokról és bejelentésekről. Emellett a vállalat természetesen a hirdetőknek is szeretne minél inkább kedvezni, és a szigorúbb feltételrendszert részben a videósokkal, részben a hirdető cégekkel közösen szeretné kialakítani.