A március 13-án megszavazott  AI Act az első olyan jogi keretrendszer, amely kezeli a mesterséges intelligencia (MI) kockázatait.

 

A törvény az ide év 3. negyedévében lép hatályba! De többlépcsős türelmi időt biztosít az érintetteknek, hogy legyen idejük megfelelni az új jogszabálynak. A rendelet az elfogadása után két évvel, 2026-ban lép hatályba, két kivétellel. Az egyik, hogy az elfogadhatatlanul magas rizikójú rendszereket hat hónapos türelmi idő elteltével le kell kapcsolniuk a szolgáltatóknak. A másik, hogy az alacsony rizikójú, általános felhasználású MI-rendszerekre vonatkozó szabályok már tizenkét hónap után alkalmazandók lesznek. A mesterséges intelligenciáról szóló jogszabály célja, hogy egyértelmű követelményeket és kötelezettségeket biztosítson a mesterséges intelligencia fejlesztői, alkalmazói számára a mesterséges intelligencia konkrét felhasználása tekintetében. Továbbá biztosítja, hogy az európaiak megbízhassanak abban, amit a mesterséges intelligencia kínál.

A szabályozási keret négy kockázati szintet (elfogadhatatlan, magas, korlátozott és minimális kockázat) határoz meg az MI-rendszerekre vonatkozóan. Teszi mindezt aszerint, hogy milyen potenciális kockázatot jelentenek a társadalomra nézve. Minden olyan MI-rendszert betiltanak az EU-ban, amely egyértelműen veszélyezteti az emberek biztonságát, megélhetését és jogait, a kormányok által végzett közösségi pontozástól kezdve a veszélyes magatartásra ösztönző hangos segítségnyújtást használó játékokig.

A magas kockázatúnak ítélt rendszerekre (kritikus infrastruktúrák, oktatás, szakképzés, foglalkoztatás, alapvető magán- és közszolgáltatások (egészségügyi, banki), bűnüldözés, a migráció és határigazgatás területe, igazságszolgáltatás, demokratikus folyamatok) szigorú szabályok vonatkoznak majd, amelyeket az uniós piacra való belépésük előtt kell alkalmazni.

A mesterséges intelligenciáról szóló jogszabály a kis cégeknek is ad feladatot. A chatrobotok üzemeltetőinek mindig egyértelművé kell tennie a felhasználó és harmadik fél számára is a tartalom MI által generált részét. Ezen kívül világosan jelezni kell a felhasználónak, mikor kommunikál MI-vel. Ez akkor különösen fontosa, ha az MI kép-, hang- vagy videotartalmat generál vagy manipulál, mint például a deepfakes.

A rendelettel kapcsolatos szabályszegéseket az illetékes hatóság a GDPR-nál is szigorúbb bírsággal büntetheti.