
Harlem Globetrotters slave 100 godina
Svetski poznati američki košarkaški šou Harlem Globetrotters slavi izuzetan jubilej – 100 godina postojanja – i upravo je objavio sve stanice na svojoj istorijskoj turneji! U okviru ove veličanstvene proslav...
Upotreba velikih jezičkih modela u naučnim istraživanjima može dovesti do širenja lažnih informacija, upozoravaju stručnjaci

U trenutnom razvoju veštačke inteligencije (AI), posebno u okviru velikih jezičkih modela (LLM) koji se koriste u četbotovima, pojavio se ozbiljan problem – generisanje lažnih ili netačnih informacija koje modeli predstavljaju kao verodostojne. Ovaj fenomen, poznat kao „AI halucinacije“, predstavlja značajnu pretnju integritetu naučnih istraživanja, navode istraživači sa Oksfordskog internet instituta u svom radu objavljenom u prestižnom časopisu Nature Human Behaviour.
Ovo istraživanje Oksforda ima za cilj da podigne svest o potencijalnim rizicima i ograničenjima tehnologije veštačke inteligencije, posebno u kontekstu širenja naučno neutemeljenih informacija.
Istraživanje upozorava da iako su veliki jezički modeli dizajnirani da daju korisne i ubedljive odgovore, oni ne sadrže nužno samo dokazive činjenice. U svetu gde AI igra sve veću ulogu, ključno je razumeti njegove mogućnosti i granice kako bi se očuvala pouzdanost i integritet naučnog rada.
To znači da informacije generisane od strane ovih AI modela mogu biti zasnovane na netačnim ili neproverenim podacima, posebno zbog njihove tendencije da koriste onlajn izvore koji nisu uvek pouzdani.
Profesor Brent Mitelštat, koautor studije, naglašava da korisnici ovih modela „često daju tehnologiji ljudske osobine“, verujući joj kao pouzdanom izvoru informacija.
Ovo se dešava zbog sposobnosti LLM da imitiraju ljudski način razgovora, što dovodi do toga da korisnici lako prihvate njihove odgovore kao tačne, iako oni mogu biti pristrasni, nepotpuni ili čak potpuno izmišljeni, piše TheNextWeb.
Zbog toga istraživači pozivaju na oprez u korišćenju AI modela, posebno u naučnom i obrazovnom kontekstu, gde je tačnost informacija od presudnog značaja.
Preporučuju da se LLM koriste kao alati koji mogu pomoći u obradi i interpretaciji podataka, ali ne kao primarni izvori znanja. Umesto toga, naglašavaju potrebu za pažljivom proverom i kritičkim razmišljanjem pri upotrebi informacija dobijenih od AI modela.
Preuzimanje delova teksta je dozvoljeno, ali uz obavezno navođenje izvora i uz postavljanje linka ka izvornom tekstu na novaekonomija.rs

Svetski poznati američki košarkaški šou Harlem Globetrotters slavi izuzetan jubilej – 100 godina postojanja – i upravo je objavio sve stanice na svojoj istorijskoj turneji! U okviru ove veličanstvene proslav...

Sva tri mobilna operatera koja posluju u Srbiji, objavila su da su pustila 5G mrežu. Međutim, malo ko zna šta je zapravo 5G mreža i zašto je ona značajna, da li je opasna po zdravlje i da li ćemo kada upalim...

U domovima se sve češće koriste uređaji koji međusobno komuniciraju i obavljaju zadatke bez stalnog nadzora. Svetlo, grejanje, sigurnosni sistemi i aparati mogu da rade po pravilima koja korisnik postavi. ...

Crni petak je iza nas, ali popusti još uvek traju. U petak, 28. novembra započeto je sezonsko sniženje u trgovinskim lancima, ali i uslužnim objektima. Trgovci su obećali sniženja i do 50 odsto, a Nova ekono...
PREMIUM sadržaji na platformi NovaEkonomija.rs Inforamcije koje imaju dodatnu vrednost
POGLEDAJ SVE