Evropska unija je z Aktom o umetni inteligenci (Uredba (EU) 2024/1689 o določitvi harmoniziranih pravil o umetni inteligenci) sprejela prvo celovito zakonodajo na svetu, ki ureja področje umetne inteligence (AI). Cilj novega pravnega okvira je vzpostaviti temelje za zanesljivo, pregledno in varno uporabo umetne inteligence, ki bo delovala v korist ljudi in ob spoštovanju temeljnih pravic.
Gre za zakonodajo, ki uravnoteženo združuje spodbujanje inovacij in potrebo po varstvu temeljnih vrednot Evropske unije. Posebnost Akta je v tem, da uvaja pristop, ki temelji na stopnji tveganja, kar omogoča različno strogost regulacije glede na potencialno škodo, ki jo AI lahko povzroči.
Zakaj umetna inteligenca potrebuje regulacijo?
Umetna inteligenca je že postala del našega vsakdana. Velika večina AI sistemov je koristna in varna, a nekateri lahko predstavljajo resna tveganja za človekove pravice, zasebnost, varnost in družbeno pravičnost. Prav zato je potreben jasen in zavezujoč pravni okvir.
Akt o umetni inteligenci sistematično ureja razvoj in uporabo AI tehnologij, pri čemer temelji na tem, kakšno stopnjo tveganja določeni sistemi predstavljajo za posameznike in družbo.
Štiri ravni tveganja: Od prepovedi do popolne svobode
Uredba razlikuje med štirimi kategorijami umetne inteligence, glede na ocenjeno tveganje:
1. Nesprejemljivo tveganje (Unacceptable Risk)
AI sistemi, ki pomenijo jasno grožnjo človekovim pravicam, so prepovedani. To vključuje:
• uporabo manipulativnih tehnik,
• izkoriščanje ranljivih skupin (npr. otrok, oseb z invalidnostmi),
• socialno točkovanje po vzoru Kitajske,
• biometrično identifikacijo v realnem času na javnih mestih,
• prepoznavanje čustev v šolah ali na delovnem mestu.
Takšne prakse so v EU nedopustne, saj posegajo v zasebnost, dostojanstvo in svobodo posameznika.
2. Visoko tveganje (High Risk)
Visoko rizični sistemi vključujejo AI, ki se uporablja na občutljivih področjih, kot so:
• zdravstvo (npr. diagnoze),
• promet (npr. avtonomna vozila),
• zaposlovanje (npr. razvrščanje kandidatov),
• pravosodje (npr. pomoč pri odločanju sodnikov),
• izobraževanje (npr. ocenjevanje učencev).
Za te sisteme veljajo stroge zahteve, med drugim:
• ocena tveganj pred uvedbo,
• uporaba zanesljivih in nediskriminatornih podatkov,
• zagotavljanje sledljivosti in človeškega nadzora,
• visoka kibernetska varnost.
Cilj je zmanjšati morebitne negativne posledice in povečati zaupanje uporabnikov.
3. Omejeno tveganje (Limited Risk)
Sistemi z omejenim tveganjem, kot so klepetalni roboti (chatboti) ali orodja za generiranje vsebin, morajo biti pregledni. Uporabniki morajo vedeti, kdaj komunicirajo z AI in kdaj je vsebina, ki jo vidijo, umetno ustvarjena (npr. deepfake videi).
Preglednost zmanjšuje možnost zavajanja in manipulacije, hkrati pa omogoča bolj ozaveščeno uporabo tehnologije.
4. Minimalno tveganje (Minimal Risk)
Največja skupina AI sistemov – denimo AI filtri za spam, sistemi za priporočila v spletnih trgovinah ali orodja v videoigrah – ne predstavljajo pomembnega tveganja. Zanje Akt o umetni inteligenci ne predpisuje posebnih pravil.
Novi izzivi: Generativna umetna inteligenca
Posebna skrb je namenjena generativnim AI sistemom, kot so veliki jezikovni modeli (npr. ChatGPT) in AI orodja za ustvarjanje slik ali videov. Ti sistemi se pogosto uporabljajo za najrazličnejše namene in imajo lahko sistemski vpliv na družbo.
Akt zato uvaja posebna pravila za modele splošnega namena, vključno z:
• obveznostjo zagotavljanja preglednosti,
• spoštovanjem avtorskih pravic,
• označevanjem vsebin, ki jih ustvari AI,
• ocenjevanjem in obvladovanjem sistemskih tveganj.
Ta del uredbe bo začel veljati avgusta 2025, z možnostjo dokazovanja skladnosti prek prostovoljnega kodeksa ravnanja.
Kdo bo skrbel za izvajanje pravil?
Za usklajeno izvajanje Akta o umetni inteligenci bo odgovoren Evropski urad za umetno inteligenco, ki bo tesno sodeloval z nacionalnimi nadzornimi organi. Ti bodo:
• nadzirali skladnost s pravili,
• obravnavali kršitve in
• spremljali dolgoročne učinke zakonodaje na družbo, inovacije in temeljne pravice.
Kako bo akt začel delovati v praksi?
Akt o umetni inteligenci je začel veljati 1. avgusta 2024, vendar se njegove določbe uveljavljajo postopoma:
- Prepovedi in obveznosti glede pismenosti na področju umetne inteligence so začele veljati že 2. februarja 2025;
- Pravila upravljanja in obveznosti za umetnointeligenčne modele za splošne namene se bodo začela uporabljati 2. avgusta 2025;
- Za umetnointeligenčne sisteme velikega tveganja, ki so vgrajeni v regulirane proizvode, pa velja podaljšano prehodno obdobje do 2. avgusta 2027.
Sklep: Evropa kot vodilna sila odgovorne umetne inteligence
Evropska unija je s sprejetjem Akta o umetni inteligenci stopila na čelo globalnega prizadevanja za etično in človeku prijazno regulacijo AI. Z uravnoteženim pristopom med zaščito temeljnih pravic in spodbujanjem inovacij želi oblikovati prihodnost, v kateri tehnologija služi človeku – ne obratno.
Z novo zakonodajo Evropa ne ureja le svojega notranjega trga, temveč nastopa kot globalna normativna sila, ki lahko vpliva tudi na oblikovanje standardov izven meja EU.