:

Égető kérdést hagy megválaszolatlanul az EU egyik legfontosabb törvénye

Égető kérdést hagy megválaszolatlanul az EU egyik legfontosabb törvénye

Jóllehet a mesterséges intelligencia már hosszú évek óta az életünk részét képezi a YouTube-hoz és a Facebookhoz hasonló felületek fejlett algoritmusai lévén, az emberek többsége csupán a ChatGPT megjelenése után kapta fel a fejét a trendre, ami azóta is tart, és vélhetően rányomja majd a bélyegét a következő évtizedekre. Szerencsére az átlagos polgároknál az Európai Unió, csakúgy mint a világ többi nagyhatalma, régebb óta figyelemmel követi a gépi tanulás és a mesterséges intelligencia fejlődését, és

már nagyjából egy évtizede dolgoznak azon, hogy olyan keretrendszert hozzanak létre, ami nem gátolja a jótékony technológiák megjelenését és fejlődést, mégis védik az állampolgárokat a kártékony rendszerek térnyerésétől.

Az első ilyen komolyabb lépésre 2018 áprilisában került sor, amikor lefektették az alapvető európai mesterségesintelligencia-stratégiát, majd az év végére már koordinált tervvel is előálltak a döntéshozók. Ennek nyomán megkezdődött az egyeztetés az érintett cégekkel, akik bár kezdettől fogva egyetértettek az EU-val abban, hogy korlátozásra van szükség, a tárgyalások elhúzódtak, és az Európai Bizottság csupán 2021 áprilisában tudta bemutatni az első, MI-re fókuszáló törvénycsomagot, ami már törvénybetartatási mechanizmusokat is tartalmazott. Ennek első vázlatát az Európai Tanács már 2022-ben elfogadta, majd az Európai Parlament is, 2023. június 14-én.

Az Európai Unió bonyolult törvényalkotási folyamatai azonban nem teszik lehetővé, hogy egy-egy felterjesztés komolyabb lektorálás, vagy épp az érintettekkel zajló egyeztetés nélkül szavazásra kerüljön. Így bár tavaly még sokan azt hitték, hogy a világ első, mesterséges intelligenciát célzó törvénycsomagja, az EU AI Act már 2023 év végén szavazásra kerülhet, erre végül 2024. március 13-ig kellett várni.

Az AI Actet a végszavazáson 523 igen szavazattal, 46 nem ellenében, 49 tartózkodással fogadtál el, a kihirdetésre pedig várhatóan májusban kerülhet sor, a nyelvi lektorálást követően.

A mesterséges intelligencia három szintjét szétszálazó, többszáz oldalas törvény ezt követően 20 nappal léphet hatályba, természetesen ezen túl is türelmi időt biztosítva az érintetteknek, hogy megfeleljenek az új jogszabálynak, csakúgy mint a technológiai nagyvállalatokat, illetve piaci folyamatokat megcélzó DMA (Digital Market Act), valamint az EU-s állampolgárok védelmét szolgáló Digital Service Act (DSA) esetében.

A döntés szerint lesznek rendelkezések, amiket fél éven belül alkalmazni kell, míg az általános célú rendszereknél 12, a magas kockázatú mesterséges intelligencia-megoldásoknál pedig 36 hónap áll a cégek és állami szervek rendelkezésére, hogy a törvényeknek megfelelővé tegyék a mesterséges intelligenciát használó megoldásaikat. Na de mit is jelentenek pontosan ezek a fogalmak, és mi lesz a napjainkat leginkább befolyásoló generatív mesterséges intelligenciával? Ennek járunk utána cikkünkben.

Tűrt, tiltott, támogatott? Nem egészen

Az évek során az Artificial Intelligence Act rengeteg változtatáson ment keresztül, ami főleg az olyan fejlett EU-s országok ellenvetéseinek volt köszönhető, mint például Franciaország, Németország vagy és Olaszország, illetve az egyeztetéseken résztvevő technológiai cégek is keményen lobbiztak saját termékük védelméért. Sokáig úgy tűnt, hogy a végső rendelet négy szintre (betiltandó, magas kockázatú, figyelemmel követendő, illetve általános célú rendszerekre) fogja bontani az MI-fejlesztéseket, azonban ez végül háromra szűkült. Így végül tiltott, magas kockázatú és általános célú (GPAI) rendszereket különböztetnek meg. Vegyük sorra, hogy az egyes szintek milyen rendszerekre vonatkoznak.

A tiltott rendszerek között mindenhol elsőként nevezik meg az úgynevezett társadalmi kreditrendszert, melyet sokan Kínával azonosítanak. Ennek részeként az állam az egyén viselkedése vagy személyes tulajdonságai alapján szab ki jutalmat vagy büntetést egyes tagjaira, melynek pontosságát fejlett megfigyelőrendszer kiépítésével tudnak szavatolni. Az Európai Unió megtiltja az ilyen rendszerek kiépítését.

Ugyanígy betiltásra kerülnek az olyan rendszerek, amelyek rassz, politikai vélemény, szakszervezeti tagság, vallási vagy filozófiai meggyőződés, vagy szexuális irányultság alapján kategorizálják az állampolgárokat.

A törvénytervezet ezen felül megtiltja a hatóságoknak a valós idejű helyadatokon alapuló távoli biometrikus azonosítást (RBI) is, leszámítva azokat az eseteket, amikor súlyos bűncselekmények gyanúsítottjainak azonosítása zajlik, például ha emberrablásról, terrorista cselekmény előkészítéséről, vagy épp szervezet kábítószerkereskedelemről van szó. Ugyancsak tiltott az adatbáziskészítés a biztonsági kamerák felvételeinek (CCTV) lekaparásából származó felvételekből, és azt is megtiltja a törvény, hogy pusztán külső jellemzők alapján, egyéb bizonyítékok nélkül kövessék a hatóságok egy adott személy tevékenységét.

Fontos ezen felül, hogy tiltott minden olyan rendszer létrehozása, amely tudatalatti, manipulatív vagy megtévesztő technikák alkalmazásával próbál rávenni embereket a viselkedésük megmásítására. Ezen felül a sérülékeny társadalmi csoportokra szakosodott rendszerek, így például a fiatalokat vagy időskorúakat, fogyatékkal élőket vagy társadalmi-gazdasági szempontból kiszolgáltatott embereket célzó rendszerek használata és terjesztése is tiltott. Az EU végül betiltja az olyan iskolai vagy munkahelyi megfigyelőrendszereket is, amelyek az ott lévők érzelmeit monitorozzák.

Magas kockázatú rendszerek

Amikor az adott fejlesztés magas kockázatot jelent, de nem nevezhető egyértelműen destruktívnak, az AI Act úgy rendelkezik, hogy a mesterséges intelligenciát nem kell betiltani, de a forgalomba kerülés előtt át kell esniük egy uniós átvilágításon, mely során ellenőrzik, megfelelnek-e a követelményeknek. A követelmények között szerepel többek közt a képzési adatok sokfélesége, ezzel elkerülve a diszkriminatív, részrehajló rendszerek létrehozását.

Ezen felül részletes, közérthető műszaki dokumentációval kell bírnia a szoftvernek, ami egyúttal folyamatos kockázatértékelést végez, és védve tartja az általa kezelt adatokat. Emellett a kiberbiztonsági ellenőrzéseket és fejlesztéseket is előírják a termék teljes életciklusa alatt. A legfontosabb azonban, hogy legyen bármennyire fejlett is az adott algoritmus, a végső döntésnek mindig szakképzett emberek kezében kell lennie.

Ezt egyesek viccesen Skynet-passzusként is szokták emlegetni.

Ez vonatkozik többek között a kritikus fontosságú infrastruktúra területére, például a digitális rendszereket és a közúthálózatot monitorozó programokra, valamint a lakossági víz-, gáz-, áram- és fűtéshálózat területén használt rendszerekre is. A mesterséges intelligencia megregulázását célzó törvény ezen kívül számos egyéb területet is megnevez, ahol a szoftverek komoly kockázatot jelenthetnek. Ilyen például az oktatás és a humánerőforrás menedzsment szegmense is.

Magas kockáztot jelentenek például azok a rendszerek, amelyek meghatározzák az oktatási és szakképzési intézményekhez való hozzáférést, valamint az oda történő felvételt. Szintén kockázatos terület az olyan rendszerek fejlesztése, amelyek az egyén képzettségi szintjének megfelelő intézmény kiválasztására képesek, csakúgy mint a tiltott tanulói magatartás megfigyelésére használt rendszerek. Magas kockázatúként tartják számon a célzott álláshirdetések kiküldésére, valamint a jelöltek értékelésére szolgáló rendszereket is, illetve azokat a szisztémákat is, amelyek a már a cégnél dolgozó emberek előléptetéséről, kirúgásáról döntenek.

Az MI-modelleknek ráadásul a törvény szerint csakis szabályozott körülmények között lehet rálátása az emberek pénzügyeire, illetve az igazságszolgáltatás és a demokratikus folyamatok területére is.

Ennek részeként a hitelképesség értékelését, illetve az egészség- és életbiztosítások árképzését befolyásoló fejlesztéseket is a magas kockázatú MI-fejlesztések kategóriájába sorolja az EU-s törvény. Szintén potenciális veszéllyel bírnak a menedék-, és vízumkérelmek elbírálására szolgáló fejlesztések, illetve azok is, amelyek úti okmányokon túl is alkalmasak személyek beazonosítására. Végül pedig az igazságszolgáltatásban, illetve választások, politikai kampányok és népszavazások során használt mesterséges intelligencia alapú megoldásoknak is át kell esniük az említett ellenőrzéseken.

Általános célú mesterséges intelligencia

Az EU-s döntéshozás igencsak bonyolultnak mondható, amivel Brüsszelben is tisztában vannak, így tavaly októberben részletekbe menően is bemutatták az európai újságíróknak az egyes törvények, így például AI Act hátterét is. A háttérbeszélgetésen elmondták, hogy az eddig megjelent, és piacon lévő mesterséges intelligenciák nagyjából 80 százaléka egyébként ártalmatlan, és amennyiben átesnek az engedélyezési folyamaton, semmiféle probléma nem lesz az alkalmazásukkal az Európai Gazdasági Térség területén.

Az AI Act a tiltott, és magas kockázatú MI-rendszerek mellett harmadikként az úgynevezett általános célú mesterséges intelligenciát (GPAI) emeli ki, amely besorolás leginkább a GPT-hez hasonló nagy nyelvi modellekre (LLM) vonatkozik. A definíció szerint a GPAI-ok olyan modellek, amelyek önmagukat képzik a rendelkezésükre bocsátott rengeteg adattal, a végeredményt tekintve pedig képesek kompetensen végrehajtani olyan különböző feladatokat, mint például a szöveg-, kép-, zene- vagy videógenerálás.

Ezen modellek többsége alapvetően nem veszélyes, ugyanis a gyártók jelentős korlátokat építenek beléjük (tiltják az erőszak és a pornográfia ábrázolását, közéleti szereplők megjelenítését, stb.), ugyanakkor fontos kiemelni, hogy ezek legtöbbször nyílt forráskódú rendszerek, így a végső felhasználási mód rengetegféle lehet. A törvény részeként így az olyan nagy szolgáltatóknak, mint például az OpenAI (GPT), a Google (Gemini), vagy a Meta (Llama) kötelezettsége:

részletes és naprakész műszaki dokumentációval rendelkezni a képzés és a tesztelés paramétereiről, tájékoztatni a rendszer képességeiről és korlátairól a későbbi felhasználókat, tiszteletben tartani a szerzői jogra vonatkozó irányelveket, illetve közzétenni a képzéshez használt adatok részletes listáját.

Bár sokáig vita volt erről, az EU-s döntéshozók végül kötelezték a cégeket, hogy vízjellel vagy megkülönböztető jelzéssel jelöljék meg a generatív mesterséges intelligencia által készített tartalmakat, kivéve ha azok teljesen egyértelműen beazonosíthatók. Ez a jövőben hasznos lehet például a politikai kampányidőszakban megjelenő potenciális deepfake-ek kiszűrésére is.

A törvény ezentúl előírja, hogy folyamatosan teszteljék, hogy a modell kijátszható, illetve hogy kiberbiztonsági szempontból megbízható-e, ha pedig valamilyen hibával/visszaéléssel szembesülnek, azt mielőbb jelezzék a hamarosan felállításra kerülő EU-s MI Hivatalnak, vagy a területileg illetékes hatóságoknak. Végül érdemes megjegyezni, hogy a GPAI modellek is átcsúszhatnak a magas kockázatú kategóriába, ha például a számítási kapacitásuk meghaladja a 10²⁵ műveletet másodpercenként. Ebben az esetben alaposan a gyártó körmére nézhetnek az EU-s szakértők.

Mit fogunk ebből érezni?

Az Európai Bizottság elnöke, Ursula von der Leyen szerint az Európai Unió úttörő törvényének célja nem más, mint hogy világszerte megágyazzon az alapos MI-szabályozásnak, csakúgy mint ahogy azt a GDPR-szabályozás tette az adatvédelem területén.

I welcome the @Europarl_EN vote on the AI Act.

Europe’s pioneering framework for innovative AI, with clear guardrails.

This will benefit Europe’s fantastic pool of talents.

And set a blueprint for trustworthy AI throughout the world.

— Ursula von der Leyen (@vonderleyen) March 13, 2024

Emellett azonban tagadhatatlan, hogy az uniós szabályozás az MI területén leginkább előrehaladott amerikai cégek (OpenAI, Google, Meta) megfékezésével is járhat – lévén a szabályok minden, Európában jelen lévő vállalatra vonatkoznak –, ami lehetőséget teremtene az európai központú cégek felzárkózására, ezzel együtt az adatvédelem-fókuszú mesterséges intelligencia ideájának terjesztésére.

Informatikai szabályozás területén leegyszerűsítve három modell létezik jelenleg a világon: a kínai, az amerikai és az európai.

Kínában hatalmas mesterségesintelligencia-rendszerek működnek, amelyeket sokszor megfigyelési céllal használnak, az állampárt pedig nem csinál ügyet a személyiségi jogi kérdésekből, így könnyedén begyűjthetők a felhasználói adatok profilozási célból. Az Egyesült Államokban nem a politikai, sokkal inkább az üzleti célok érvényesülnek: az embereknek adottak a jogai, azonban amint elfogadnak egy üzleti szabályozást, lényegében lemondanak azokról. Az Európai Unió ezzel szemben sokkal nagyobb hangsúlyt fektet az adatvédelemre, ami viszont komoly gazdasági hátrányt jelent.

Dr. Rab Árpád Szörény, a Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézetének tudományos főmunkatársa tavaly lapunknak azt mondta:

Egy jól működő MI-nek rengeteg adatra van szüksége. Márpedig ha nem szabadítjuk fel az adatokat, sosem lesz jó mesterséges intelligencia az Európai Unióban.

Ezen a téren pedig egyelőre nem látni változást. Az EU-s AI Actben lefektetett szabályokból inkább az olvasható ki, hogy az Európai Unió továbbra sem arra fókuszál, hogy fejlesztőként vegye ki a részét a mesterséges intelligencia területének előrehaladásából, sokkal inkább az amerikai modelleket próbálja meg valahogy úgy átalakítani és szabályozni, hogy azok megfeleljenek saját értékeinek.

Persze előremutató lépés, hogy felhívják a figyelmet a generatív MI szerzői jogi aggályaira, és hogy védik az európai polgárokat az esetleges támadásoktól, Európa hosszútávú versenyképessége szempontjából azonban az is kulcsfontosságú lenne, hogy az öreg kontinensen élő több mint 500 millió ember ne kizárólag amerikai és kínai vállalatok fejlesztéseinek legyen kitéve, ahogy az történik jelenleg a közösségi média területén.

Az ilyen cégek európai felhasználók adatai felhasználása által termelt profitja ugyanis messze meghaladja azt, amit az esetleges szabályszegések miatt ki kellene fizetniük az EU-nak.

A törvény szerint ugyanis a bírság maximális értéke 35 millió euró (nagyjából 14 milliárd forint), vagy a jogsértő szervezet előző pénzügyi évében elért teljes éves világpiaci forgalmának 7 százalékát kitevő összeg lehet, attól függően, hogy melyik érték a magasabb a kettő közül. Ez az összeg azonban meg se kottyan a Meta, a Google vagy épp az OpenAI-hoz gyanúsan közel álló Microsoft teljes éves forgalmának, így a törvénytől való eltérésben rejlő pénzügyi lehetőségek bizonyára sok céget el fognak gondolkodtatni a jövőben, hogy érdemes-e az EU-s szabályok szerint játszani, főleg úgy, hogy első olvasásra a halmozott visszaélések nem vonnak maguk után kitiltást az európai piacról.

Kapcsolódó A magyar elnökség tehet pontot az MI szabályozásáról szóló vita végére Hosszú évek óta húzódik már az Európai Unióban a mesterséges intelligencia szabályozásának ügye, most viszont már tényleg a finisben vagyunk.

The post Égető kérdést hagy megválaszolatlanul az EU egyik legfontosabb törvénye first appeared on 24.hu.