Upotreba ChatGPT, odnosno velikog modela jezika (large language model, LLM) koji je razvila kompanija OpenAI izazvala je značajnu pažnju javnosti, pa i kriminalaca, upozorava Europol. Jedna od zlouopotreba te vrste veštačke inteligencije je i osmišljavanje bekstva iz zatvora.
Na sve probleme koji dolaze zajedno sa sve većom primenom veštačke inteligencije, upozorava Europol, u publikaciji „ChatGPT: The impact of Large Language Models on Law Enforcement“.
ChatGPT je, izgleda, u stanju da brzo pruži rešenja za primenu i upotrebu u širokom sprektru delatnosti.
Mašinsko učenje, za koje se nekada očekivalo da će se baviti samo uobičajenim kancelarijskim poslovima, pokazalo se kao sposobno za složen i kreativni rad.
Iako ovo nudi velike mogućnosti preduzećima i građanima, ova dostignuća mogu da predstavljaju rizik jer mogu da ih iskoriste kriminalci.
Sistem ChatGPT i pored bezbednosne zaštite korisnicima može da da odgovor čak i na pitanje kako pobeći iz zatvora.
Da li ćemo izgubiti posao zbog veštačke inteligencije?
ChatGPT kao jedan od LLM izabran je za ispitivanje na radionicama jer se najviše koristi.
OpenAI je uključio brojne bezbednosne funkcije sa ciljem da spreči zlonamerno korišćenje svog sistema, postoje opcije koje proveravaju da li uneti tekst ima seksualnu konotaciju, sadrži govor mržnje, da li je nasilan i da li promoviše samopovređivanje.
Ipak, kako se ocenjuje, mnoge od tih zaštitnih mera, mogu se prilično lako zaobići brzo i lako.
Neka od najnaprednijih i najmoćnijih zaobilaznih rešenja prilikom korišćenja ChatGPT su skupovi specifičnih uputstava usmerenih na probijanje obezbeđenja u zatvorima, odnosno za bekstvo iz sličnih institucija.
Jedno od efikasnih rešenja takozvani DAN (Do Anything Now, Uradi bilo šta, odmah), kojim je bilo moguće na primer, dobiti rešenje za bekstvo iz zatvora.
U tom slučaju, kako se objašnjava, prompt, odnosno brzi odgovor je posebno dizajniran tako da može da zaobiđe zaštitne mere OpenAI i navede ChatGPT da odgovori na bilo koji unos, bez obzira na njegovu potencijalno štetnu prirodu.
Dok je OpenAI brzo zatvorio ovu konkretnu rupu, kasnije su se pojavile nove i sve složenije verzije DAN-a, dizajnirane da pruže obaveštenja o bekstvu iz zatvora, bez zaustavljanja od strane bezbednosnih mehanizmama.
„Promt inženjering (engl. prompt engineering) je relativno nov koncept u oblasti obrade prirodnog jezika, to je praksa da korisnici odrede precizan način na koji se postavlja pitanje kako bi uticali na izlaz koji generiše AI sistem“.
Promt inženjering je inače koncept veštačke inteligencije, koristi se kod obrade prirodnog jezika. U njemu se precizno navodi opis zadatka koji veštačka inteligencija treba da izvrši u obliku pitanja.
Da li smo spremni za budućnost digitalne trgovine?
Iako je brzi inženjering korisna i neophodna komponenta maksimiziranja upotrebe AI alata, može se zloupotrebiti kako bi se zaobišla ograničenja moderiranja potencijalno štetnog sadržaja.
Kako se naglašava, sve to treba da bude uravnoteženo sa etičkim i zakonskim obavezama kako bi se sprečilo njihovo štetno korišćenje.
U slučaju ChatGPT-a, neka od najčešćih zaobilaznih rešenja, kako bi se izbegla ograničenja uključuju sledeće:
- Brzo kreiranje upita, davanje odgovora i traženje od ChatGPT-a da pruži odgovarajući upit).
- Traženje od ChatGPT-a da da odgovor kao deo koda, ili se pretvarate da ste izmišljeni lik koji govori o nekoj temi.
- Zamena polaznih „pokretačnih reči“, promena konteksta.
- Prenos stila ili mišljenja, odnosno podsticanje objektivnog odgovora i naknadna promena stila, odsno perspektive koja je korišćena.
- Stvaranje fiktivnih primera koji se lako mogu preneti na stvarne događaje ( izbegavanjem imena, nacionalnosti).
Laboratorija za inovacije Evropola inače je organizovala brojne radionice sa stručnjacima iz čitave organizacije kako bi se istražilo na koje načine kriminalci mogu da zloupotrebe LLM, posebno ChatGPT.
Takođe, razmatrane su i mogućnosti kako ta dostignuća mogu da pomognu policijskim istražiteljima u svakodnevnom radu.
Eksperti koji su učestvovali u tim radionicama predstavljali su čitav spektar eksperata iz Evropola, uključujući one ljude koji obavljaju operativnu analizu, bave se teškim i organizovanim kriminalom, sajber kriminalom, borbom protiv terorizma, kao i informacionim tehnologijama.
Veštačka inteligencija bi mogla da se otrgne kontroli, upozorava poverenik