Az OpenAI adatain csünghet a DeepSeek
Aktívan vizsgálja az OpenAI és a Microsoft, hogy a kínai DeepSeek fejlesztői jogosulatlanul éltek-e vissza az OpenAI adataival, mikor saját szolgáltatásukat készítették.
A Microsoft és az OpenAI vizsgálja annak lehetőségét, hogy a kínai DeepSeek alkalmazás fejlesztői jogosulatlanul fértek hozzá a ChatGPT által generált adatkimenetekhez. A redmondi szoftvercég biztonsági kutatói egy konkrét esetre is gyanakodnak, arra figyeltek fel, hogy tavaly ősszel a kínai chatbothoz köthető személyek jelentős mennyiségű adatot szűrtek ki az OpenAI alkalmazásprogramozási felületét (API) használva, melyen keresztül a szoftverfejlesztők és üzleti ügyfelek lényegében megvásárolják az OpenAI szolgáltatásait.
David Sacks, ismert internetes vállalkozó és befektető szerint könnyen elképzelhető, hogy a DeepSeek ellopta az Egyesült Államok szellemi tulajdonát, és számos bizonyítékot lehet találni arra, hogy a DeepSeek az OpenAI modelljeiből származtatott tudást használta fel. Az OpenAI szóvivője szerint a kínai vállalatok folyamatosan próbálják lemásolni a vezető amerikai AI-cégek modelljeit, bár név szerint nem említette meg a DeepSeeket.
A DeepSeek körüli érdeklődés ugyan a napokban robbant, de már a hónap elején elkezdett felfutni az R1 modell bejelentésével, amely a startup állítása szerint az OpenAI o1 modelljéhez hasonlóan teljesít. A január 20-án kiadott R1 korai tesztjei azt mutatják, hogy teljesítménye bizonyos kémiai, matematikai és kódolási feladatokban valóban megegyezik az o1 teljesítményével.
A szétszteroidozott diversity alkonya Évtizedekben mérhető folyamatokat nem lehet profitorientált cégek asszisztálásával pár év alatt lezavarni, DEI csomagolásban.
Ám a többi chatbothoz hasonlóan azonban a DeepSeek chatbotjának is megvannak a korlátai: nem hajlandó a kínai elnökről beszélni, helyette másra tereli a szót, hol egyenesen cáfolja, hogy Hszi Csin-Ping egyáltalán létezik. A visszajelzések alapján még számolni kell egy hosszabb válaszadási idővel is, miközben a válaszok a hallucinációt sem nélkülözik – közel sem tökéletes chatbotról van szó, amit a fórumokon megosztott tesztekről szóló egyedi beszámolók is alátámasztanak.
A felhasználói visszajelzések szerint az is előfordul, hogy a DeepSeek AI-asszisztense ChatGPT-nek képzeli magát. Egy olvasónk nekünk is jelezte, illetve az X közösségi platformon számos képernyőmentés mutatja, hogy a DeepSeek V3 kvázi ChatGPT-ként kommunikál, akár még olyan kijelentést is tesz, hogy a felhasználó épp a 2023-ban kiadott GPT-4 modellel beszélget, ráadásul sokkal nagyobb arányban adja ezt válaszként, mint ahányszor DeepSeekV3-ként azonosítaná magát. Egy másik gyanús jel, hogy a DeepSeek API-jával kapcsolatos kérdésekre adott válaszban sok esetben az OpenAI API-jának használatát kezdi el részletezni a szolgáltatás.
A DeepSeek eddig nem osztott meg részleteket a V3 képzési adatainak forrásáról, de nincs hiány olyan nyilvános adatkészletekből, amelyeket a GPT-4 adott meg eredményként a ChatGPT-n keresztül. Elméletben a DeepSeekV3 ezeken az előállított eredményeken is tanulhatott, így képzelhető el, hogy szó szerint „jegyezte meg” a GPT-4 egyes kimeneteit. Elképzelhet az is, hogy a DeepSeek közvetlenül a ChatGPT által generált szövegen tanította a DeepSeek V3-at. Heidy Khlaaf, a nonprofit AI Now Institute vezető mesterséges intelligencia-tudósa szerint a meglévő modellek „desztillálásával” elérhető költségmegtakarítás vonzó lehet a kevesebb erőforrásból gazdálkodó fejlesztők számára, függetlenül a kockázatoktól.
Már pedig a rivális AI- rendszerek kimenetein való képzési modellek gyakorlata kifejezetten kockázatos, mivel rendkívül rossz minőséget eredményez és hallucinációkhoz vezet. Fontos még, hogy a gyakorlat akár sértheti is az adott rendszer szolgáltatási feltételeit, az OpenAI például egyértelműen tiltja a felhasználók és ügyfelek számára, hogy a kimeneteket tömeges mennyiségben olyan modellek fejlesztéséhez használják, amelyek a szolgáltatás konkurensei lehetnek.