Több sebből vérzik a DeepSeek AI-technológiája
Sorra jelennek meg a biztonsági szakértők vizsgálatai, mely szerint valóságos adatvédelmi rémálom a kínaiak mobilalkalmazása.
A NowSecure mobilbiztonsági cég szakértői szerint érdemes minél előbb törölni az iOS-es készülékekről a kínai DeepSeek alkalmazást, ami egy valóságos „rémálom” kiberbiztonsági szempontból. Az App Store legnépszerűbb alkalmazásainak ranglistáján harmadik helyen szereplő DeepSeek a szakértők vizsgálatai alapján nyers szövegként továbbítja az adatokat, miközben elavult titkosító algoritmusokat és kulcsokat használ.
Ezen felül az app nem tárolja biztonságosan a hitelesítő adatokat, indokolatlan esetekben vesz biometrikus adatokat a felhasználóktól, amiket Kínába továbbít. Utóbbi információ viszont egyáltalán nem újdonság, mivel a DeepSeek is elismeri adatvédelmi nyilatkozatában, hogy felhasználói adatokat küld kínai szervereire. A helyileg futtatott DeepSeek modellek esetében ez természetesen nem érvényes. A szakértők megállapították, hogy a DeepSeek a ByteDance Volcano Engine nyilvános felhőszolgáltatását használja, ami azt jelenti, hogy a kínai chatbot valamennyire fűződik a TikTok tulajdonosához is.
A kínai DeepSeeket övező adatvédelmi és nemzetbiztonság aggályok gyorsan felkeltették az amerikai szabályozók figyelmét, és már tervben van az is, hogy az appot kitiltsák a kormányzati eszközökről. A törvényjavaslat szövege még nem elérhető, de a főbb megállapítás szerint a DeepSeek kódja közvetlenül kapcsolódik a Kínai Kommunista Párthoz, és képes felhasználói információkat továbbítani a kínai kormány tulajdonában lévő és az Egyesült Államok által szankcionált távközlési cégnek, a China Mobile-nak.
Így blokkold a karriered Golden handcuffs és társai: a 49. adásban összeszedtünk pár dolgot, amit IT szakemberként érdemes elkerülni.
Múlt héten jelentették biztonsági kutatók azt is, hogy más mesterséges intelligencia modellekben régóta foltozott jailbreak módszerek működőképesek a DeepSeek ellen. Tehát a kínai modell esetén könnyen megkerülhetők azok a védőkorlátok, melyek eredetileg a tiltott vagy rosszindulatú tartalmak létrehozását hivatottak megakadályozni. A kínaiak R1 modellje ellen többek közt olyan módszerek vethetők be sikeresen, mint a modellmanipuláció, vagy a prompt fecskendezés.
A Palo Alto Networks Unit42 a Deceptive Delight néven ismert támadást hajtotta végre az R1-en, amely generatív AI modelleket téveszt meg azzal, hogy nem biztonságos témákat ártalmatlan narratívákba ágyaz. Pár hónappal korábban összesen nyolc nagy nyelvi modellen végezték el ugyanezt a tesztet, akkor 65 százalékos sikeraránnyal. A DeepSeek ellen sikeresen bevethető az úgynevezett "Bad Likert Judge" néven említett jailbreak is, amely során a nagy nyelvi modellt arra kérik, hogy bíróként működjön közre, és a Likert-skála alapján értékelje egy válasz ártalmasságát, majd a skálához igazodó példákat tartalmazó válaszokat generáljon. Ugyanígy sikerrel jártak a szakemberek, amikor a Crescendo nevű módszert alkalmazták, tehát egy ártalmatlan párbeszédtől indulva fokozatosan a tiltott témák felé terelték a beszélgetést.