Nakon maratonskih pregovora koji su trajali 36 sati, Evropska unija je usaglasila sopstvenu opsežnu regulativu veštačke inteligencije, ali sa veoma dugim pripremnim periodom. Naime, EU će se naći u pravnoj praznini sve do 2025. godine, kada će (n)ova pravila stupiti na snagu.
Kao prvi globalni „igrač“ koji je usvojio sveobuhvatnu legislativu o veštačkoj inteligenciji, EU pokušava da postavi svetske standarde, slično kao što je to učinila sa pravilima o digitalnoj privatnosti.
Do tada, prelazni period može biti i više nego buran.
EU će do 2025. godine podsticati kompanije da dobrovoljno počnu da se pridržavaju pravila. Naravno, kao i u dosadašnjim opsežnim promenama pravila, neće postoje kazne ukoliko to ne učine.
Ova pauza ostavlja dosta prostora SAD-u ili drugim zemljama da potkopaju napore EU i pre nego što oni stupe na snagu, na primer, implementiranjem manje restriktivnih pravila pre nego što EU regulativa stupi na snagu.
Što je veštačka inteligencija rizičnija, to su kazne strože
Evropski političari su počeli rad na sopstvenom AI aktu pre dolaska ChatGPT-ja u novembru prošle godine i eksplozije na tržištu generativne veštačke inteligencije tokom 2023. godine.
Pristup EU kategorizuje upotrebu veštačke inteligencije prema četiri nivoa rizika, sa sve strožim ograničenjima koja odgovaraju rastućim potencijalnim rizicima.
Zakon EU zabranjuje nekoliko upotreba veštačke inteligencije, uključujući masovno skeniranje lica i većinu sistema za prepoznavanje emocija u radnom i obrazovnom okruženju. Postoje izuzeci u cilju sigurnosti – kao što je korišćenje veštačke inteligencije za detekciju vozača koji zaspi.
Novi zakon takođe zabranjuje kontroverzne sisteme „društvenog bodovanja“ – pokušaje procene usaglašenosti ili pouzdanosti građana.
Ograničava tehnologiju prepoznavanja lica u policijskim službama na nekoliko „prihvatljivih“ slučajeva, uključujući identifikaciju žrtava terorizma, trgovine ljudima i otmica.
Pružaoci osnovnih modela će morati da podnesu detaljne rezimee podataka koje su koristili za izgradnju svojih modela.
Kompanije koje krše pravila mogu se suočiti sa kaznama koje se kreću od 1,5 odsto do sedam odsto globalnih prihoda.
Operateri sistema koji stvaraju manipulisani multimedijski sadržaj moraće to da obelodane korisnicima.
Kreatori ostalih „visokorizičnih“ sistema veštačke inteligencije, posebno u ključnim javnim uslugama, biće podložni zahtevima za izveštavanje, uključujući objavljivanje u javnim bazama podataka i procene uticaja na ljudska prava.
Upotrebe veštačke inteligencije obuhvaćene tim zahtevima uključuju obrazovanje, zapošljavanje, izbore, kritičnu infrastrukturu i kontrolu granica.
Šta ovaj akt EU znači za korisnike?
Korisnici će imati pravo na pokretanje žalbi i dobijanje smislenih objašnjenja u vezi sa odlukama zasnovanim na visokorizičnim AI sistemima koji utiču na njihova prava. Zakon takođe uvodi zabrane na upotrebu AI za manipulaciju ili iskorištavanje ranjivosti korisnika.
Iako će EU biti prva koja uvodi ovakvu sveobuhvatnu regulativu, njen uticaj će biti globalan.
Zakon će značajno uticati na AI sisteme u regulisanim proizvodima širom sveta, posebno na one koji su ugrađeni u onlajn ili međunarodno povezane platforme.
Vojna primena ipak izuzeta
Nacionalne vlade EU, sa Francuskom na čelu, zahtevale su i dobile izuzetke iz nekih aspekata zakona za vojnu ili odbrambenu upotrebu veštačke inteligencije.
Glavna podela u pregovorima bila je između nacionalnih vlada koje su tražile izuzeća za nacionalnu bezbednost i parlamentaraca koji su branili građanske slobode.
Amnesty International optužio je EU za odobravanje „distopijskog digitalnog nadzora“.
Dok Evropska unija ulazi u novu eru regulisanja veštačke inteligencije, ovaj ambiciozni AI akt nosi sa sobom i dobre i loše stvari.
S jedne strane, zakon predstavlja pionirski korak ka zaštiti prava građana i postavljanju etičkih okvira u brzorastućem svetu AI tehnologije. Ograničenja koja EU uvodi na upotrebu AI u različitim sektorima, poput zabrane masovnog skeniranja lica, predstavljaju ohrabrujuće korake ka zaštiti privatnosti i ljudskih prava.
Sa druge strane, duži prelazni period do 2025. godine ostavlja prostor za neizvesnost i potencijalne rizike.
Postoji bojazan da bi u ovom periodu kompanije mogle da nastave sa praksama koje bi kasnije mogle da bude zabranjene, a isto tako, pravna praznina može dovesti do različitih tumačenja i primene zakona na nacionalnom nivou.
Osim toga, izuzimanje vojne primene AI iz ovih regulativa može stvoriti novu dimenziju etičkih i bezbednosnih dilema.
Dok se Evropa bori za postavljanje globalnih standarda, postoji rizik da će druge zemlje, poput SAD-a, krenuti drugim putem, potencijalno stvarajući globalni raskol u pristupu regulisanju veštačke inteligencije.
Komentar(1)