:

Szerző: Dömös Zsuzsanna

2024. július 5. 12:26

Eddig volt titok, hogy betörtek az OpenAI-hoz

Az incidens még a tavalyi év elején történt, de a cég végül úgy döntött, hogy nem hozza nyilvánosságra az ügyet, és nem tájékoztatja a hatóságokat sem, mert nem tartotta nemzetbiztonsági kockázatnak az esetet.

2023 elején egy kiberbűnöző hozzáférést szerzett a ChatGPT-t fejlesztő OpenAI belsős kommunikációsrendszeréhez, ahonnan utána az AI technológia tervezésével kapcsolatos információkat lopott a beszélgetéseken és fórumokon keresztül, de forráskódokhoz, vagy érzékenyebb adatokhoz nem ért el. A startup vezetői tavaly áprilisban tájékoztatták az alkalmazottakat és az igazgatótanácsot az incidensről, de nem tárták nyilvánosság elé, mivel ügyfelek vagy partnerek információi nem voltak érintettek – szivárogtatta ki a részleteket két névtelenségét kérő munkatárs a New York Times-nak.

A vezetők nem minősítették az incidenst nemzetbiztonsági fenyetésnek sem, mivel úgy vélték, hogy nem egy államilag szponzorált szereplő, hanem egy magánszemély volt az elkövető. Így nem tettek bejelentést az amerikai szövetségi nyomozóiroda (FBI) vagy más bűnüldöző szerv felé sem.

Az ügy inkább a cégen belül keltett feszültséget: az alkalmazottak egy részében felmerült az aggodalom, hogy külföldi felek, például Kína hozzáférhettek az AI technológiához kapcsolódó fontos információkhoz, ami akár veszélyeztetheti is az USA nemzetbiztonságát. Mindemellett jogosan adódik a kérdés, hogy az OpenAI mennyit fektet be a biztonságba és átláthatóságba.

openai

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata!

A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

A jogsértés után az idén tavasszal elbocsátott Leopold Aschenbrenner, az OpenAI technikai programvezetője az igazgatótanácshoz fordult azzal a váddal, miszerint a cég nem tesz eleget annak megakadályozására, hogy a kínai kormány vagy más külföldi felek ellophassák az üzleti titkokat, a startup biztonsági rendszere és eszközei nem elég erősek ahhoz, hogy megelőzzék a kulcsfontosságú titkok ellopását. Az OpenAI nemrégiben létrehozott egy biztonságért felelős bizottságot a jövő technológiái által jelentett kockázatok megvitatására és megoldására.

Egyáltalán nem megalapozatlan a gyanú, hogy Kína amerikai technológiai vállalatok feltörésével próbálna üzleti titkokhoz hozzájutni, a Microsoft múlt hónapban közölte, hogy kínai hackerek széles körű támadást indítottak a szövetségi kormányzati hálózatok ellen a redmondi cég platformját kihasználva.

Megosztó kérdés, hogy a modern AI technológiák nemzetbiztonsági kockázatot jelentenek-e, hisz a generatív eszközökkel a korábbinál egyszerűbbé vált a meggyőző dezinformáció terjesztése, a manipulatív deepfake-ek, hamis képek generálása, ami egy sor visszaélésre ad lehetőséget, akár politikai befolyásolás céljával. Az OpenAI és az Anthropic tanulmányai szerint az AI nem veszélyesebb egy keresőmotornál, illetve az Anthropic embere szerint az sem jelentene különösebben komoly kockázatot, ha hozzáférnének a fejlesztési dokumentumokhoz.

Az USA-n túl Kína szintén rengeteg erőforrást tol az AI-ba, egyes jelentések szerint akár már az Egyesült Államokat is megelőzhette fejlettségben, és sokkal több szakemberrel és kutatóval rendelkezik, akikért ádáz verseny folyik a szektorban.

November 25-26-án 6 alkalmas K8s security és 10 alkalmas, a Go és a cloud native szoftverfejlesztés alapjaiba bevezető képzéseket indítunk. Az élő képzések órái utólag is visszanézhetők, és munkaidő végén kezdődnek.

a címlapról