Pravno uramljivanje veštačke inteligencije
Pre samo pola godine, veštačka inteligencija (AI) bila je više tema za razmišljanje, budućnost i dugoročna vizija o tehnologiji koja će jednom (možda) uticati na naša radna mesta, ponašanje i svakodnevnicu generalno.
Ali u senci priče o inflaciji, ratu, uvek aktuelnoj temi o ekonomskoj krizi, krajem prošle godine u život nam je na mala vrata ušetao servis pod nazivom „Chat GPT“. I dok smo svi pokušavali da obradimo tu informaciju i sagledamo činjenicu da je nešto tako moguće i dostupno, stigla je i nova, unapređena verzija servisa označena brojem četiri koja je iz laboratorije za istraživanje i razvoj Open AI kompanije izašla u martu ove godine.
Da sada ne idemo toliko daleko sa predviđanjima šta će eventualna peta generacija GPT-a doneti koja se naveliko „trenira“ i priprema, za mene lično je i ova četvrta dovoljno veliko čudo koji je vredno analize i promišljanja u pravcu šta i kako dalje. A ne samo da je GPT prošao Turingov test, već je „položio“ i pravosudni ispit u SAD (A poznato je da smo mi pravnici spremni i na fizički sukob ako neko pokuša da ospori da je pravnosudni najteži od svih ispita).
Ali ono što kao pravnik ne mogu i ne smem da uradim je da se uhvatim u koštac sa pisanjem o karakteristikama samog servisa i njegovoj arhitekturi. Odnosno uzdržao bih se od tehnološkog pristupa servisu i AI generalno, neuronskim mrežama i algoritmima o čemu već dosta reči ima u drugim relevantnim izvorima gde se kao autori pojavljuju stručnjaci iz sveta razvoja AI softvera.
Ono što mi međutim daje legitimitet da u ovom tekstu analiziram veštačku inteligenciju je potencijalna opasnost koju ta nova tehnologija nosi i potrebu da se kroz regulativu uspostavi pravni okvir i ograniči njena primena samo na pozitivne aspekte, dok za to još nije kasno.
Koliko je situacija ozbiljna i razvoj AI tehnologije rapidan govori da je veliki broj uticajnih ljudi iz IT biznisa na čelu sa Ilonom Maskom, zahtevao da se napravi pauza od šest meseci sa lansiranjem novih projekata zasnovanih na AI. Iako mnogi od potpisnika peticije nesumnjivo imaju i svoje sopstvene interese za privremeno podizanje rampe, rizik od uticaja ove tehnologije na ljude i ljudska prava na koji se ukazuje nije upitan.
Sledeći moguća „neželjena dejstva“ veštačke inteligencije, nadležni komiteti Evropske unije su u maju ove godine odobrili nacrt „Uredbe o veštačkoj inteligenciji“ (AI akt) i uputili je Evropskom parlamentu na usvajanje, koji je već u junu poslao dokument na javnu raspravu državama članicama, sve sa idejom da ograniče i kanališu primenu ove tehnologije u pravcu dobrobiti čovečanstva ili bar što pozitivnijeg efekta na ljudski rod.
AI akt nam za početak donosi i zvaničnu definiciju veštačke inteligencije kako za potrebe primene Akta tako i za dalje praćenje i izučavanje, i pod istom dakle podrazumeva softver sa jednom ili više tehnika i pristupa (poput mašinskog učenja, statistike i logike) koji na osnovu datih parametara od strane čoveka, generiše rezultate u vidu sadržaja, predviđanja, preporuka ili odluka pod uticajem okoline sa kojom ima interakciju.
Jedan od ciljeva i karakteristika AI akta je ukazivanje na rizike od AI-a i njihovu kategorizaciju od koje zavisi i kako će se pristupti određenom servisu na bazi AI. Tako zavisno od rizika, AI sevis može biti u kategoriji zabranjenog, visokorizičnog ili pod oznakom ostalih servisa niskog rizika.
AI akt primera radi zabranjuje one servise koji bi AI koristili za manipulaciju ljudima i njihovo obmanjivanje, psihološko profilisanje koje bi moglo voditi diskriminaciji, kao i obradu biometrijskih podataka u kontekstu praćenja ljudi u realnom vremenu na velikom javnom prostoru, stvaranje lažnih identiteta itd. Ujedno ove potencijalne primene predstavljaju i najveće pretnje, pa je bilo primarno da se Uredbom nedvosmisleno zabrane.
Međutim, AI akt pod određenim uslovima dozvoljava neke „visokorizične servise“ čije korišćenje može uticati na bezbednost i ljudska prava, gde se ubraja i sektor zdravstva, rada, obrazovanja, saobraćaja i biometrije generalno sa akcentom na prepoznavanje lica i emocija, ali i sprovođenje istraga i vršenje kaznene prevencije uz pomoć AI. Servisi visokog rizika pored obaveza sprovođenja prethodne procene i poštovanja transparentnosti prema korisnicima i nadležnim organima, imaju obavezu da kao takvi budu i označeni.
Dakle, ako se na primer na graničnom prelazu koristi tehnologija „prepoznavanja emocija“ o tome morate jasno biti informisani, a takođe mora postojati jasno objašnjenje o karakteristikama te tehnologije i obimu njene primene, a tehnička dokumentacija koja tehnologiju čini transparentnom mora biti redovno ažurirana i ispunjavati čitav niz uslova u pogledu sadržine koje propisuje AI akt u njegovom aneksu IV.
A kad smo kod gore pomenutog Turignovog testa, interesantna je za pomenuti i jedna odredba Akta koja nalaže obavezu provajderima da obezbede da sistemi veštačke inteligencije namenjeni za interakciju sa fizičkim licima budu dizajnirani na način da lica budu obaveštena da komuniciraju sa AI. Između ostalog i da se ne bi došlo do zablude sa mogućim emotivno dugoročnim posledicama. Da ne kažemo – zaljubljivanja u neku, za početak virtuelnu „Ex Machinu“. Što će, kako se smatra, ipak biti neminovno u budućnosti. Ali to je druga tema.
Elem, uredba o veštačkoj inteligenciji je kompleksan i slojevit akt i u većoj meri, bar na papiru, uvodi red u primenu AI tehnologije, s osnovnim ciljem da rizike koje AI nosi svede na prihvatljivu meru.
A više informacija o novoj AI regulativi možete dobiti i jednostavnim upitom na ChatGPT-iju.
Preuzimanje delova teksta je dozvoljeno, ali uz obavezno navođenje izvora i uz postavljanje linka ka izvornom tekstu na novaekonomija.rs