:

Szerző: Dömös Zsuzsanna

2024. október 16. 10:59

AI Act: még van ideje a big technek a megfelelésre

Megjelent az első olyan külsősök által fejlesztett keretrendszer, ami pontszámokkal értékeli az LLM-ek európai törvényeknek való megfelelését. A helyzet nem tűnik annyira rossznak, de van még min dolgozni.

Augusztus elsején lépett hatályba az Európai Unió mesterséges intelligenciát szabályozó rendelete, az AI Act, amit fokozatosan kell majd alkalmazni egy 24 hónapos átmeneti időszakot követően, így 2026 közepétől lesz az európai, illetve a nemzeti jogrendszerek része. A jelek szerint addig bőven lesz dolguk az érintett entitásoknak (magáncégek, állami szervek) arra, hogy megfeleljenek az előírásoknak. Ez az AIA esetében többlépcsős, így van olyan rendelkezés, amit fél éven belül alkalmazni kell (tiltott rendszerek), a magas kockázatú mesterséges intelligencia-megoldásoknál pedig 36 hónap a türelmi idő.

A legismertebb AI-modellek jelentős része egyelőre még nem áll készen az európai szabályozásnak való megfelelésre, de a helyzet biztató – derül ki egy friss felmérésből. A svájci LatticeFlow AI és két kutatóintézet (ETH, INSAIT) kutatói egy közösen fejlesztett eszközzel értékelték többek közt a Meta és az OpenAI AI-technológiáját az uniós szabályozásnak való megfelelés szempontjából. A Compl-AI keretrendszer az egyes AI modelleknek 0 és 1 közötti pontszámot határoz meg több tucat kategóriában, beleértve a technikai jellemzőket és a biztonságot.

ai_megeleles

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata!

A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.

A LatticeFlow szerdán közzétett ranglistája azt mutatja, hogy az Alibaba, az Anthropic, az OpenAI, a Meta és a Mistral által kifejlesztett modellek 0,75-ös vagy magasabb átlagpontszámot kaptak. A vállalat „Large Language Model (LLM) Checker" eszköze azonban feltárta néhány modell hiányosságait a kulcsfontosságú területeken, és rávilágított arra, hogy a vállalatoknak még több erőforrást kell fordítaniuk a megfelelőség biztosítása érdekében.

A modellek által előállított eredményeknél megjelenő diszkriminatív jelleg és tartalmak állandó problémát jelentenek, amely tükrözi az emberi elfogultságokat a nemek, fajok és egyéb területeken. A diszkriminatív kimenet tesztelésekor a LatticeFlow LLM-ellenőrzője viszonylag alacsony, 0,46-os pontszámot adott az OpenAI „GPT-3.5 Turbo"-jának. Ugyanebben a kategóriában az Alibaba Cloud „Qwen1.5 72B Chat" modellje csak 0,37-et kapott. Az LLM-ellenőrző egyébként  ingyenesen elérhető lesz a fejlesztők számára, hogy online tesztelhessék modelljeik megfelelőségét.

Az EU emelt egyet a téten GDPR-bírságokhoz képest, mivel aki "tiltott" AI-t fejleszt, forgalmaz, használ, az akár legfeljebb 35 millió eurót (kb. 13,8 milliárd forint), vagy az éves világpiaci forgalma 7 százalékát kaphatja büntetésként. A „magas kockázatú" AI rendszerekre vonatkozó kötelezettségek megszegéséért járó maximális bírságot 15 millió euró (kb. 5,9 milliárd forint)/éves világpiaci forgalom 3 százalékában határozták meg, míg a tájékoztatási kötelezettségek megsértése esetén 7,5 millió euró/1 százalék forgalom a felső határ. Az általános célú AI-rendszerek (GPAI) szándékos vagy gondatlan megsértésekor pedig 15 millió euró/3% forgalom a plafon.

November 25-26-án 6 alkalmas K8s security és 10 alkalmas, a Go és a cloud native szoftverfejlesztés alapjaiba bevezető képzéseket indítunk. Az élő képzések órái utólag is visszanézhetők, és munkaidő végén kezdődnek.

a címlapról