Az Európai Unió új MI-rendelete: mit kell tudniuk a vállalkozásoknak?

  1. június 13-án elfogadásra került, és 2024. augusztus 1-jén hatályba lépett az Európai Unió új, egységes mesterséges intelligenciáról szóló rendelete (2024/1689/EU, „AI-rendelet”). A szabályozás célja, hogy biztonságos, átlátható és jogszerű keretek között történjen a mesterséges intelligencia fejlesztése és alkalmazása az EU-ban, miközben védi a fogyasztókat és az alapvető jogokat.

A szabályozás célja, hogy biztosítsa az MI technológiák biztonságos, etikus és emberközpontú használatát az Európai Unióban, figyelembe véve az alapvető jogokat, az adatvédelmet és a közérdeket.

A rendelet meghatározza, hogy az MI rendszereknek miként kell védeniük az egyének egészségét, biztonságát és alapvető jogait. Emellett külön szabályokat vezet be a nagy kockázatú MI rendszerekre, például a biometrikus azonosítás, a bűnüldözés, az oktatás, az egészségügy és az igazságszolgáltatás területén. Az ilyen rendszerek fejlesztőinek, forgalmazóinak és üzemeltetőinek szigorú megfelelőségi követelményeknek kell eleget tenniük, beleértve a kockázatkezelést, tesztelést és megfelelő adatminőséget.

Az MI rendszerek használata során az átláthatóságot és a felelősségvállalást is szabályozza, biztosítva, hogy a technológia fejlődése összhangban legyen az uniós értékekkel és elvekkel.

Kire vonatkozik a rendelet?

Az AI-rendelet nem csupán az EU-ban letelepedett cégekre vonatkozik. Kötelezettséget keletkeztet minden olyan szolgáltatóra, forgalmazóra, üzembe helyezőre, importőrre, termékgyártóra vagy felhasználóra, aki az Európai Unió területén MI-rendszert hoz forgalomba, használ vagy üzemeltet. Harmadik országban működő cégek is érintettek lehetnek, ha termékük vagy szolgáltatásuk, vagy az MI-rendszer által előállított kimenet az EU-ban kerül alkalmazásra vagy használatra.

Kivételt képeznek többek között a kizárólag kutatási célból fejlesztett, nem kereskedelmi felhasználású rendszerek, illetve bizonyos nyílt forráskódú fejlesztések, amennyiben nem minősülnek magas kockázatúnak.

A kötelezettségek fő csoportjai

A rendelet a mesterséges intelligencia rendszereket kockázati kategóriákba sorolja, és ezek alapján állapít meg kötelezettségeket:

  • Elfogadhatatlan kockázat, azaz a tiltott MI-rendszerek: tilos minden olyan MI-rendszer, amely egyértelmű fenyegetést jelent az emberek biztonságára, megélhetésére és jogaira nézve.
  • A rendelet nyolc olyan gyakorlatról rendelkezik, amely minden esetben tiltott:
  1. káros MI-alapú manipuláció és megtévesztés
  2. a sebezhetőségek káros, mesterséges intelligencián alapuló kiaknázása
  3. társadalmi pontozás
  4. a bűncselekmények egyedi kockázatértékelése vagy előrejelzése
  5. az internetes vagy CCTV-anyagok nem célzott lekaparása arcfelismerő adatbázisok létrehozása vagy bővítése céljából
  6. érzelemfelismerés a munkahelyeken és az oktatási intézményekben
  7. biometrikus kategorizálás bizonyos védett jellemzők levezetése érdekében
  8. valós idejű távoli biometrikus azonosítás bűnüldözési célokra nyilvánosan hozzáférhető helyeken
  • Magas kockázatú MI-rendszerek: ide tartoznak azok az esetek, amelyek súlyos kockázatot jelenthetnek az egészségre, biztonságra vagy az alapvető jogokra nézve, mint például a kritikus infrastruktúrában, egészségügyben, oktatásban vagy foglalkoztatásban használt rendszerek. Ezen rendszerek esetében szigorú kötelezettségeknek kell megfelelni, többek között:
  • megfelelő kockázatértékelési és -csökkentési rendszerek kialakítása
  • a rendszert tápláló adatkészletek magas minősége a diszkriminatív eredmények kockázatának minimalizálása érdekében
  • a tevékenység naplózása az eredmények nyomon követhetőségének biztosítása érdekében
  • részletes dokumentáció, amely tartalmazza a rendszerrel kapcsolatos összes szükséges információt és azt a célt, hogy a hatóságok értékeljék a rendszer megfelelőségét
  • az alkalmazó egyértelmű és megfelelő tájékoztatása
  • megfelelő emberi felügyeleti intézkedések
  • magas szintű robusztusság, kiberbiztonság és pontosság

 

  • Korlátozott kockázat: például csevegőrobotok használatakor az embereket tájékoztatni kell arról, hogy kölcsönhatásba lépnek egy géppel, hogy megalapozott döntést hozhassanak.
    • Az általános célú (GPAI) MI-modellek esetében a szolgáltatóinak biztosítaniuk kell, az ilyen módon létrehozott tartalom azonosítható legyen. A mesterséges intelligencia által létrehozott bizonyos tartalmakat, például a deepfake-eket és a nyilvánosság közérdekű ügyekről való tájékoztatása céljából közzétett szövegeket egyértelműen és jól láthatóan fel kell címkézni. Azaz a nyilvánosságot tájékoztatni kell, hogy MI által generált tartalomról van szó.
  • Minimális vagy semmilyen kockázattal nem rendelkező rendszerek: Az EU-ban használt MI-rendszerek túlnyomó része ebbe a kategóriába tartozik, külön szabályozás alá nem esnek. Ide tartoznak például a spamszűrők, vagy MI-kompatibilis videójátékok.

Határidők és átmeneti időszak

A rendelet szabályai fokozatosan válnak kötelezővé:

  • a tiltott AI-gyakorlatokra vonatkozó tilalmak 2025. február 2. napjától alkalmazandók;
  • az általános célú AI-modellekre vonatkozó kötelezettségek és irányítási szabályok 2025. augusztus 2. napjától alkalmazandók;
  • a rendelet egésze 2026. augusztus 2. napjától alkalmazandó;
  • a szabályozott termékekbe beágyazott nagy kockázatú MI-rendszerekre vonatkozó szabályok 2027. augusztus 2. napjáig hosszabbított átmeneti időszakkal rendelkeznek.

Mit jelent ez a vállalkozásoknak?

Az érintett cégeknek mielőbb fel kell mérniük, hogy mely MI-rendszereik tartoznak a rendelet hatálya alá, és azok mely kockázati kategóriába sorolhatók. Ehhez kapcsolódóan szükséges:

  • belső megfelelőségi terv kidolgozása,
  • dokumentációs és auditálási folyamatok kialakítása,
  • a fejlesztési és működtetési gyakorlatok összehangolása az új követelményekkel.

Aki időben felkészül, elkerülheti a súlyos bírságokat (amelyek akár a globális árbevétel 7%-át is elérhetik), és versenyelőnyt szerezhet a jogkövető, biztonságos MI-használattal.

 

 

Dr. Tóth Tamás LL. M.

Hargittay és Társai Ügyvédi Iroda

Legutóbbi BLOG bejegyzések