Kártékony válaszokkal sokkol a Google AI-keresője
Alig néhány nappal az indulás után hamis vagy félrevezető válaszok garmadájáról számoltak be a Google kereső generatív AI-alapú keresését használó internetezők.
A Google éves fejlesztői konferenciáján beszélt arról a hónap elején, mennyivel könnyebbé teszi majd a hasznos információk előásását a keresőbe integrált "AI Overview" funkció, amit a Gemini generatív nagy nyelvi modellre épített fel. A cég 2024 végéig több mint egymilliárd felhasználó számára szeretné elérhetővé tenni az újítást, ami első körben az Egyesült Államokban használható, később érkezik más országokba minden platformon, weben és mobilon egyaránt.
Az AI Overview összefoglalókat és válaszokat generál a felhasználó által feltett kérdésekre a keresési találatok listájának tetején, ami megváltoztatja annak módját, ahogy az internetezők eddig interaktáltak és információt kerestek a legnépszerűbb keresőben. Már a bemutató kapcsán felmerült egy halom kérdés azzal kapcsolatban, milyen hosszútávú hatásai lehetnek az eljárásnak az internetes keresésre úgy általában, és miként bírkózik meg a generatív szolgáltatások gyengepontjával, a hallucinációval.
A funkciót használatba vevő felhasználók képernyőmentései az elérhetőség kiterjesztése után elárasztották a közösségi felületeket, mivel egyes esetekben nem csak hamis vagy félrevezető, de egészen bizarr válaszokat és tanácsokat ad a szolgáltatás. Például, hogy a magát kereszténynek valló Barack Obama muszlim, Afrikában nincs K kezdőbetűvel kezdődő ország (Kenya), vagy azt javasolja, hogy ragasztó segítségével lehet segíteni a pizzáról leeső sajt problémáján, illetve érdemes napi egy követ elfogyasztani annak magas vitamin- és ásványianyag tartalma miatt.
CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.
Colette Garcia, a Google szóvivője azzal védekezett, hogy a fejlesztés az esetek többségében hatékonyan és megbízhatóan teljesít, és az interneten virálissá vált képek közül több is manipulált lehet. A vállalat aktívan dolgozik azon, hogy bizonyos, egyelőre még problémás válaszokat hozó lekérdezéseket manuálisan letiltson.
A cég több mint egy éve teszteli az AI Overview-t, ami 2023-ban lépett bétaverzióba még Search Generative Experience elnevezéssel. Sundar Pichai vezérigazgató szerint addig több mint egymilliárd lekérdezést szolgált ki a fejlesztés. Sikerült 80 százalékkal csökkenteni a válaszok generálásával járó költségeket is a „mérnöki és technikai áttöréseknek” köszönhetően. Úgy tűnik azonban, hogy az optimalizálás terén elért előrelépés nem jár kéz a kézben a minőséggel.
Alapvető probléma, hogy a különféle generatív AI-eszközök nem képesek megítélni az internetről előásott információ hitelességét, ellenben szívesen dolgoznak a felkeresett oldal népszerűsége alapján, így kerülhetett bele a kavicsok evéséről szóló tanács a The Onion portálon megjelent szatíra cikk nyomán, ami rendkívül olvasott volt.
A befektetők és a piac kegyeit kereső technológiai cégek őrült tempója nem első esetben eredményez megkérdőjelezhető terméket, a Google esetében sem, hiába köti ki a cég, hogy egy még mindig tesztelési időszakban lévő funkcióról van szó. Gary Marcus, a New York-i Egyetem professzora a cégek jól hangzó ígéretekkel harangozzák be a félkész technológiákat azzal, hogy a funkciók a terv szerint idővel 80 százalékosról 100 százalékosan megbízhatóak lesznek és teljesítik céljukat, ám az utolsó 20 százalék megvalósítása a legnehezebb.
A Google kockázatos stratégiát folytat, mert gyengítheti a bizalmat a termékeivel szemben, ráadásul már nem első alkalommal fut bele abba, hogy generatív szolgáltatását fennakadások övezik. A Gemini képgenerátor szolgáltatását átmeneileg fel kellett függeszteni a bevezetés után, mert több alkalommal is színesbőrűként, vagy ázsiaiként ábrázolt olyan történelmi személyeket, akik nem voltak azok, többek közt amerikai alapító atyákat, náci katonákat, ugyanígy járt el a vikingek ábrázolásakor is, vagy amikor a pápáról kértek képet.