Kaj Evropska komisija predlaga v Aktu o umetni inteligenci?

Evropska komisija je 21. aprila 2021 objavila predlog Uredbe Evropskega parlamenta in Sveta o določitvi skupnih pravil o umetni inteligenci oziroma tako imenovan Akt o umetni inteligenci, kar predstavlja tudi prvi poskus regulacije te tehnologije s strani večjega zakonodajnega telesa.
S tem regulativnim okvirjem želi Komisija zagotoviti varnost sistemov umetne inteligence na trgu Evropske unije ter da ti spoštujejo zakonodajo o temeljnih pravicah in vrednotah.
V predlogu so aplikacije umetne inteligence razvrstili v tri kategorije tveganja. Na vrhu lestvice so aplikacije in sistemi, kot je na primer oddaljeno biometrično prepoznavanje, ki se uporablja na Kitajskem, saj predstavljajo nesprejemljivo tveganje. Ti bodo brezpogojno prepovedani.
Za aplikacije z visokim tveganjem veljajo posebne pravne zahteve. Sem spadajo na primer orodja za skeniranje življenjepisov, ki razvrščajo prosilce za zaposlitev ali umetna inteligenca v zdravstvu.

Med posebne pravne zahteve spada na primer obveza, da se ljudi obvesti, da so v interakciji s sistemom umetne inteligence, razen če je to drugače očitno, ter da so uporabljeni sistemi čustvenega prepoznavanja ali biometrične kategorizacije. V primeru tako imenovanih globokih ponaredkov (ang. deep fake) bodo morali biti ti posnetki ustrezno označeni.
Ostale aplikacije, ki ne predstavljajo posebnega tveganja, pa bodo ostale večinoma izven regulacijskih okvirjev in bodo dovoljene brez omejitev.
Inštitut za prihodnost življenja (FLI), neodvisna neprofitna organizacija, katere cilj je povečati prednosti tehnologije in zmanjšati z njo povezana tveganja, je v sklopu javne razprave o Aktu priporočil, da bi morali ponudniki umetne inteligence upoštevati vpliv svojih aplikacij na širšo družbo, ne le na posameznika.
Aplikacije AI, ki posameznikom sicer ne povzročajo škode ali pa je ta zanemarljiva, bi lahko povzročile veliko škode na družbeni ravni. Aplikacija, ki bi se uporabila za vplivanje na volilno vedenje državljanov, bi lahko na primer vplivala na rezultate volitev.
Iz Centra za prihodnost inteligence Leverhulme in Centra za preučevanje eksistencialnih tveganj, dveh vodilnih institucij na Univerzi v Cambridgeu, so kritizirali nezmožnost hitrega prilagajanja tveganja aplikacij umetne inteligence.
Raziskovalci pri tem upajo, da se bo znotraj Akta omogočilo predlaganje sprememb seznama sistemov z omejenim tveganjem in sistemov z visokim tveganjem, s čimer se bo prožnost povečala.
Ministrstvo za digitalno preobrazbo RS je v četrtek objavilo vprašalnik, s katerim želijo »pridobiti mnenje strokovne in zainteresirane javnosti o preliminarnem stališču Republike Slovenije do predloga Akta o umetni inteligenci,« so sporočili. Svet EU je medtem decembra 2022 sprejel skupno stališče glede Akta.
Vprašalnik lahko izpolnite na tej povezavi: https://1ka.arnes.si/staliscaUredbaUI

Kaj pa na regulacijo pravi sama umetna inteligenca? Za mnenje smo povprašali ChatGPT, orodje podjetja OpenAI, ki v zadnjem času hitro pridobiva na številu uporabnikov. »Umetno inteligenco je mogoče regulirati, vendar je to zapleten izziv, ki zahteva usklajeno delo med vladnimi institucijami, industrijo, raziskovalci in drugimi deležniki,« nam je odgovoril robotek.
»Učinkovita regulacija umetne inteligence mora obravnavati številne izzive, vključno z etičnimi in pravnimi vprašanji, ki izhajajo iz uporabe umetne inteligence.«
Robotek je pojasnil, da je regulacija tega področja še v zgodnji fazi, saj se tehnologija še vedno razvija. »Regulacija mora biti prožna in se prilagajati spreminjajočim se okoliščinam, hkrati pa mora biti dovolj jasna in natančna, da zagotavlja varnost in zasebnost uporabnikov,« je še dodal ChatGPT.
»V Evropi se že izvajajo prizadevanja za regulacijo umetne inteligence, vključno z Akcijskim načrtom za umetno inteligenco, ki ga je predstavila Evropska komisija. V ZDA se razpravlja o ustanovitvi urada za tehnologijo in politiko, ki bi vključeval tudi regulacijo umetne inteligence.«