Lifestyle

05.12.2023. 11:35

Autor: Mateja Agatonovic

Istraživači sa Oksforda upozoravaju na rizike „AI halucinacija“

Upotreba velikih jezičkih modela u naučnim istraživanjima može dovesti do širenja lažnih informacija, upozoravaju stručnjaci

Lifestyle

05.12.2023. 11:35

U trenutnom razvoju veštačke inteligencije (AI), posebno u okviru velikih jezičkih modela (LLM) koji se koriste u četbotovima, pojavio se ozbiljan problem – generisanje lažnih ili netačnih informacija koje modeli predstavljaju kao verodostojne. Ovaj fenomen, poznat kao „AI halucinacije“, predstavlja značajnu pretnju integritetu naučnih istraživanja, navode istraživači sa Oksfordskog internet instituta u svom radu objavljenom u prestižnom časopisu Nature Human Behaviour.

Ovo istraživanje Oksforda ima za cilj da podigne svest o potencijalnim rizicima i ograničenjima tehnologije veštačke inteligencije, posebno u kontekstu širenja naučno neutemeljenih informacija.

Istraživanje upozorava da iako su veliki jezički modeli dizajnirani da daju korisne i ubedljive odgovore, oni ne sadrže nužno samo dokazive činjenice.  U svetu gde AI igra sve veću ulogu, ključno je razumeti njegove mogućnosti i granice kako bi se očuvala pouzdanost i integritet naučnog rada.

To znači da informacije generisane od strane ovih AI modela mogu biti zasnovane na netačnim ili neproverenim podacima, posebno zbog njihove tendencije da koriste onlajn izvore koji nisu uvek pouzdani.

Profesor Brent Mitelštat, koautor studije, naglašava da korisnici ovih modela „često daju tehnologiji ljudske osobine“, verujući joj kao pouzdanom izvoru informacija.

Ovo se dešava zbog sposobnosti LLM da imitiraju ljudski način razgovora, što dovodi do toga da korisnici lako prihvate njihove odgovore kao tačne, iako oni mogu biti pristrasni, nepotpuni ili čak potpuno izmišljeni, piše TheNextWeb.

Zbog toga istraživači pozivaju na oprez u korišćenju AI modela, posebno u naučnom i obrazovnom kontekstu, gde je tačnost informacija od presudnog značaja.

Preporučuju da se LLM koriste kao alati koji mogu pomoći u obradi i interpretaciji podataka, ali ne kao primarni izvori znanja. Umesto toga, naglašavaju potrebu za pažljivom proverom i kritičkim razmišljanjem pri upotrebi informacija dobijenih od AI modela.

Preuzimanje delova teksta je dozvoljeno, ali uz obavezno navođenje izvora i uz postavljanje linka ka izvornom tekstu na novaekonomija.rs

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Pre slanja komentara, molimo vas da se upoznate sa pravilima komentarisanja i pravilima korišćenja sajta.

Sajt je zaštićen pomocu reCaptcha i Google. Google Politika Privatnosti i Google Uslovi Korišćenja su primenjeni.

The reCAPTCHA verification period has expired. Please reload the page.