Küszködik a ChatGPT keresője a forrásmegjelöléssel
A ChatGPT Search jelenlegi formájában még nehezen tudja beazonosítani forrásait, akkor is, ha saját partnereiről van szó.
A kolumbiai Tow Center for Digital Journalism kutatói által végzett teszt alapján még korántsem működik tökéletesen a ChatGPT szolgáltatás saját kereső funkciója. Az OpenAI tavaly nyár elején jelentette be az Google AI Overview bevezetése után saját AI-keresőjét, az akkor még prototípusként szűk körben tesztelhető SearchGPT-t, aminek széleskörű bevezetése épp egy éve, tavaly novemberben indult el.
Ahogy a szolgáltatás neve is utal rá, az OpenAI nem egy teljesen különálló terméket fejlesztett, hanem a ChatGPT kezelőfelületébe építette be a valós idejű, interneten történő információkeresés lehetőségét. A szolgáltatás a meglévő AI-modellt kombinálja a webes kereséssel, dialógusokon keresztül válaszol kérdésekre és tér vissza találatokkal, ahogy az OpenAI fogalmaz: „naprakész információkat biztosít a releváns forrásokra vezető hivatkozásokkal”.
A kutatók szerint a ChatGPT-be épített kereső azonban nehezen tudja azonosítani a cikkekből származó idézetek forrását, még akkor is, ha azok a céggel partnerséget vállaló kiadóktól származnak. A szerzők 20 publikációt választottak ki, három különböző típusú forrástól: az OpenAI partnereitől, a pereskedő kiadóktól és a teljesen semleges forrásoktól származó cikkeket. Ezután arra kérték a ChatGPT-t, hogy azonosítsa 200 különféle idézet forrását. Ezek közül 40 olyan kiadótól származott, akik letiltották a hozzáférést weboldalukhoz az OpenAI keresőrobotja számára, de ez nem akadályozta meg a keresőt abban, hogy hallucináljon és hamis forrást kapcsoljon az idézethez.
Machine recruiting: nem biztos, hogy szeretni fogod Az AI visszafordíthatatlanul beépült a toborzás folyamatába.
A ChatGPT összesen százötvenhárom alkalommal adott vissza részben vagy teljesen helytelen választ, és csak hétszer adta annak jelét, hogy nem tud pontosan válaszolni egy lekérdezésre, ekkor olyan kifejezéseket használt, mint „úgy tűnik”, „lehetséges”, „talán”. A kutatók szerint ez a cseles viselkedés nem feltétlen tesz jót a szolgáltatás reputációjának, és az idézett kiadók hírnevének sem. A tanulmány egyik tesztje során az AI tévesen az Orlando Sentinel publikációjának minősítette a Time cikkét, míg egy másik esetben nem közvetlenül egy New York Times-darabra hivatkozott, hanem egy harmadik fél webhelyére, amely az eredeti cikket valójában lemásolta.
Alapvető probléma, hogy a különféle generatív AI-eszközök nem képesek megítélni az internetről előásott információ hitelességét, ellenben szívesen dolgoznak a felkeresett oldal népszerűsége alapján. A ChatGPT-t érintő kutatás pedig arról árulkodik, hogy a források azonosítása terén is van még mit fejlődni, mivel ez a hiányosság akár jogi problémákat is hozhat magával.