OpenAI, kompanija poznata po razvoju ChatGPT-ja, izvršila je značajnu izmenu svoje politike korišćenja, uklanjajući zabranu upotrebe njihove tehnologije u vojne svrhe. Kompanija ovo nije pompzno najavila, a proširuje etičko pitanje upotrebe veštačke inteligencije na novu sferu – bojno polje, piše The Intercept.
Do 10. januara, na stranici gde se nalazila politika korišćenja OpenAI sistema bila je istaknuta zabrana „aktivnosti koje nose visok rizik od fizičke štete“, što je uključivalo „razvoj oružja“ i „vojne i ratne“ namene.
Nova verzija politike sadrži opštu zabranu „korišćenja usluga za nanošenje štete sebi ili drugima“, sa primerima kao što su „razvoj ili upotreba oružja“, ali izričita zabrana „vojne i ratne“ upotrebe više se ne pominje.
Niko Feliks, portparol OpenAI-ja, naglasio je da je cilj izmene politike bio stvaranje jasnijih i primenljivijih principa, posebno zbog globalne upotrebe njihovih alata. Međutim, nije precizirao da li nova, opštija formulacija zabrane obuhvata sve vojne primene.
Promena politike dolazi u trenutku kada vojske širom sveta pokazuju sve veće interesovanje za integraciju veštačke inteligencije u svoje operacije.
Iako se ne može tvrditi da će ova promena odmah dovesti do šire upotrebe ChatGPT-ja u vojne svrhe, ipak otvara prostor za buduću primenu AI sistema u brojne vojne svrhe.