Új problémát hozott az AI az open source közösségnek
A nyílt forráskódú projektek karbantartóinak értékes idejét és erőforrásait pazarolják el a mesterséges intelligencia által írt ócska hibajelentések, amire mielőbbi megoldást kell találni a Python Software Foundation fejlesztője szerint.
A projektek karbantartóit aggasztja, hogy az AI-asszisztensek által generált hibajelentések minősége még erősen megkérdőjelezhető, ezért érdemes lenne fenntartással kezelni azokat. A témakört Seth Larson, a Python Software Foundation biztonsági fejlesztője részletezte jobban, aki egyben arra is felszólította a hibákat jelentő fejlesztőket, hogy ne használjanak segítségül AI-asszisztenst vagy AI-rendszereket a bugvadászathoz és a reportok megírásához.
Az open source projektek kapcsán beküldött, különféle LLM-ek által készített jelentések sok esetben rendkívül alacsony minőségűek és hallucinációt, tehát nem valós információkat is tartalmazhatnak, és mivel elsőre legitimnek tűnnek, ezért különösen megtévesztőek lehetnek – hívta fel a figyelmet a szakember. Larson szerint az alacsony minőségű jelentések egy szinten kezelhetőek a kártékony tartalmakkal, hiszen épp olyan annyira veszélyesek.
A szétszteroidozott diversity alkonya Évtizedekben mérhető folyamatokat nem lehet profitorientált cégek asszisztálásával pár év alatt lezavarni, DEI csomagolásban.
A spam jellegű, alacsony minőségű online tartalmak már jóval a chatbotok előtt is léteztek ugyan, de a generatív modellek elérhetővé válása megkönnyítette a tömeges előállításukat, ami érinti az újságírást, webes keresést és a közösségi médiát. A nyílt forráskódú projektek területén a hibajelentések jelenthetik az ilyen típusú szemetet, melyek értékelése időt igényelhet a mérnökök és önkéntes karbantartók részéről, ami a kiégés és a lefoglalt erőforrások problémáját hozhatja magával.
Larson szerint a nyílt forráskódú közösségnek megelőző intézkedéseket kell tennie a lehetséges károk mérséklése érdekében, elsősorban azt látja problémának, hogy kevés karbantartóra hárul a munka nagy része, és több megbízható személyt kell bevonni a fejlesztésbe, ami támogatással és adományozással valósítható meg. Arra is buzdítja a platformok üzemeltetőit, hogy tegyenek lépéseket az automatizált vagy visszaélésszerű biztonsági jelentések létrehozásának korlátozása érdekében.