Novosti v evropski zakonodaji: Akt o umetni inteligenci

29. marec 2024

Evropski parlament je na plenarnem srečanju 13. marca 2024 potrdil Akt o umetni inteligenci, s katerim želi Evropska unija prvič zakonsko urediti hitro razvijajoče se področje, ki lahko učinkovito prispeva k reševanju številnih družbenih izzivov, hkrati pa s sabo prinaša do sedaj nepoznana tveganja. Glavni cilji predlaganega akta so tako zagotavljanje varnosti prebivalcev, spoštovanje temeljnih pravic, demokracije in etičnih načel ter na drugi strani spodbujanje inovacij in raziskav na področju umetne inteligence.

Obstoječa zakonodaja, tako na ravni Evropske unije kot tudi na nacionalni ravni posameznih držav članic, sicer zagotavlja določeno zaščito, ki pa v luči hitrega razvoja umetnointeligenčnih sistemov in posebnih izzivov, ki jih le-ta prinaša, ne zadostuje, zato je Evropska unija že leta 2020, z namenom postaviti Evropo na področju tehnologije in umetne inteligence v vodilni položaj, začela s prizadevanji za vzpostavitev enotnega regulatornega okvira. Takrat je bila sprejeta Bela knjiga o umetni inteligenci, pravno nezavezujoč akt, v besedilu katerega je predviden sprejem evropske zakonodaje na področju razvoja in uporabe sistemov umetne inteligence. Zakonodajni predlog za sprejetje akta o umetni inteligenci je Evropska komisija vložila aprila 2021, decembra 2023 je bil predlog dogovorjen z državami članicami EU, v marcu 2023 je, kot rečeno, že bil potrjen v Evropskem parlamentu, do dokončnega sprejetja in veljavnosti pa čaka le še zeleno luč Sveta EU.

Nov akt določa, da mora umetna inteligenca izpolnjevati določene obveznosti, ki so odvisne od tega, kakšno tveganje predstavlja in kako močan vpliv ima (t.i. risk-based approach). Umetnointeligenčni sistemi bodo tako razdeljeni na tiste, ki predstavljajo 1. nesprejemljivo tveganje, 2. veliko tveganje, 3. omejeno tveganje in 4. minimalno tveganje. Različne stopnje tveganja bodo pomenile večji oziroma manjši obseg regulacije.

1. NESPREJEMLJIVO TVEGANJE

Umetnointeligenčni sistemi iz te kategorije bodo v Evropski uniji prepovedani. Gre za aplikacije, ki so v nasprotju z vrednotami EU, predstavljajo očitno grožnjo varnosti in pravicam državljanov. Taki so na primer sistemi biometrične identifikacije in kategorizacije oseb (tudi prepoznavanje obrazov), sistemi, ki omogočajo t.i. socialno točkovanje, sistemi, ki se uporabljajo za manipuliranje s človeškim vedenjem in tisti, ki izkoriščajo ranljive skupine ljudi (invalidi, otroci …).

2. VISOKO TVEGANJE

Sistemi, ki predstavljajo veliko tveganje, bodo na trgu EU sicer dovoljeni, vendar bodo morali izpolnjevati določene (stroge) zahteve, preden jih bo mogoče dati na trg pa bo morala biti ugotovljena tudi njihova skladnost.

Sistemi velikega tveganja vključujejo tehnologijo umetne inteligence, ki se uporablja v kritični infrastrukturi, ki bi lahko ogrozila življenje in zdravje ljudi (npr. promet), pri izobraževanju oziroma poklicnem usposabljanju (npr. točkovanje izpitov), pri varnostnih komponentah izdelkov (npr. roboti v kirurgiji), pri zaposlovanju (npr. programi za razvrščanje prijav kandidatov), pri zasebnih in javnih storitvah (npr. ugotavljanje kreditne sposobnosti), pri kazenskem pregonu, ki posega v temeljne pravice ljudi (npr. ocena zanesljivosti dokazov), pri migracijah, azilih in nadzoru meja (npr. obravnava vlog za izdajo vizumov) ter pri izvajanju pravosodja in demokratičnih procesov (npr. sistem za iskanje sodnih odločb).

Sistemi bodo morali imeti vgrajene ustrezne vzvode za ocenjevanje in zmanjševanje tveganja, nabor podatkov bo moral biti tako visok, da bo z njimi čimbolj zmanjšano tveganje za diskriminatorne rezultate. Prav tako bo potrebno beleženje dejavnosti za zagotavljanje sledljivosti rezultatov, voditi bo potrebno podrobno dokumentaijo, ki bo vsebovala vse potrebne podatke o sistemu in namenu, s čemer bodo organi lahko ocenili njegovo skladnost. Nenazadnje pa bo sistem moral imeti jasne informacije za uporabnika, ustrezen človeški nadzor ter visoko stopnjo varnosti in natančnosti.

3. OMEJENO TVEGANJE

Pri omejenem tveganju so izpostavljena potencialna tveganja, do katerih pride zaradi pomanjkanja preglednosti pri uporabi umetne inteligence. Gre za sisteme, ki neposredno komunicirajo z uporabniki (npr. chatbots) in za katere nova zakonodaja predvideva posebne obveznosti v povezavi s preglednostjo za zagotavljanje obveščanja državljanov. V praksi to pomeni, da bo moral biti posameznik ob uporabi umetnointeligenčnega sistema opozorjen, da komunicira s strojem. Prav tako bodo morale biti vsebine, ki jih bo ustvarjala umetna inteligenca, razločno označene kot umetno ustvarjene. To velja tudi oziroma še posebej za avdio in video vsebine, ki predstavljajo t.i. globoke ponaredke (deep fakes). Posameznik se bo lahko glede na navedeno nato informirano odločil za nadaljevanje uporabe sistema ali tudi ne.

4. MINIMALNO TVEGANJE

Nov akt o umetni inteligenci predvideva brezplačno uporabo umetnointeligenčnih sistemov z minimalnim tveganjem, kar vključuje tudi video igre, ki temeljijo na umetni inteligenci ter filtre za neželeno pošto. Trenutno velika večina sistemov, ki so v uporabi v Evropski uniji, spada v kategorijo minimalnega tveganja.

Po formalni potrditvi Sveta EU bo akt nato začel veljati 20 dni po objavi v Uradnem listu EU, uporabljati pa se bo začel postopoma. V celoti bo veljaven 24 mesecev po začetku veljavnosti z naslednjimi izjemami: prepovedi povezane z umetno inteligenco bodo začele veljati 6 mesecev po datumu začetka veljavnosti akta, kodeksi prakse bodo začeli veljati 9 mesecev, pravila za umetnointeligenčne sisteme za splošne namene 12 mesecev in obveznosti v zvezi z zelo tveganimi sistemi 36 mesecev po datumu začetka veljavnosti akta.

Direktiva o odgovornosti na področju EU in predlog za prenovo Direktive o odgovornosti za proizvode z napako

V povezavi z Aktom o umetni inteligenci je potrebno izpostaviti dejstvo, da prihaja trenutno na ravni Evropske unije do pomanjkanja regulacije odgovornosti umetne inteligence, kar predstavlja glavno oviro za podjetja, ki bi jo želela uporabljati. Prav zato je Evropska komisija v letu 2022 vložila zakonodajni predlog Direktive o odgovornosti na področju umetne inteligence, s čimer bi vzpostavila učinkovito uveljavljanje odškodninske odgovornosti s področja umetne inteligence ter tudi zakonodajni predlog za prenovo Direktive o odgovornosti za proizvode z napako, ki bi pokrivala nekrivdno produktno odgovornost. S prenovo želi zakonodajalec posodobiti in ustrezno prilagoditi direktivo, sprejeto v 80. letih prejšnjega stoletja, pri čemer širi področje svoje uporabe na programsko opremo, kamor spadajo tudi sistemi umetne inteligence.

Predlog prve direktive vpeljuje dva nova instituta, razkritje dokazov (sodišče lahko zahteva razkritje dokazov o konkretnem sistemu velikega tveganja, za katerega obstaja sum, da je povzročil škodo, če tožeča stranka dokaže verodostojnost svojega zahtevka) in izpodbojno domnevo vzročne zveze (v korist tožeče stranke vzpostavljena domneva med krivdo tožene stranke in podatki, ki jih je ustvaril sistem umetne inteligence), v prenovljeni direktivi pa se spreminja definicija napake (slednja po novem nastopi, ko varnost proizvoda ni skladna s pričakovanji širše javnosti), kar predstavlja velik korak k pravni regulaciji odškodninske odgovornosti sistemov umetne inteligence.

Ker gre pri umetni inteligenci za hitro razvijajočo se tehnologijo, je zakonodajalec predvidel pristop, ki bo razvoju zmožen slediti in bo hkrati omogočal, da se v prihodnosti pravila prilagajajo tehnoloških spremembam. S tem se bo kontinuirano zagotavljala varna in transparentna uporaba umetnointeligenčnih sistemov, ki obljubljajo veliko gospodarsko in tudi širšo družbeno korist.

OSTALE NOVICE

TOP