
Šta je 5G mreža?
Sva tri mobilna operatera koja posluju u Srbiji, objavila su da su pustila 5G mrežu. Međutim, malo ko zna šta je zapravo 5G mreža i zašto je ona značajna, da li je opasna po zdravlje i da li ćemo kada upalim...
Upotreba velikih jezičkih modela u naučnim istraživanjima može dovesti do širenja lažnih informacija, upozoravaju stručnjaci

U trenutnom razvoju veštačke inteligencije (AI), posebno u okviru velikih jezičkih modela (LLM) koji se koriste u četbotovima, pojavio se ozbiljan problem – generisanje lažnih ili netačnih informacija koje modeli predstavljaju kao verodostojne. Ovaj fenomen, poznat kao „AI halucinacije“, predstavlja značajnu pretnju integritetu naučnih istraživanja, navode istraživači sa Oksfordskog internet instituta u svom radu objavljenom u prestižnom časopisu Nature Human Behaviour.
Ovo istraživanje Oksforda ima za cilj da podigne svest o potencijalnim rizicima i ograničenjima tehnologije veštačke inteligencije, posebno u kontekstu širenja naučno neutemeljenih informacija.
Istraživanje upozorava da iako su veliki jezički modeli dizajnirani da daju korisne i ubedljive odgovore, oni ne sadrže nužno samo dokazive činjenice. U svetu gde AI igra sve veću ulogu, ključno je razumeti njegove mogućnosti i granice kako bi se očuvala pouzdanost i integritet naučnog rada.
To znači da informacije generisane od strane ovih AI modela mogu biti zasnovane na netačnim ili neproverenim podacima, posebno zbog njihove tendencije da koriste onlajn izvore koji nisu uvek pouzdani.
Profesor Brent Mitelštat, koautor studije, naglašava da korisnici ovih modela „često daju tehnologiji ljudske osobine“, verujući joj kao pouzdanom izvoru informacija.
Ovo se dešava zbog sposobnosti LLM da imitiraju ljudski način razgovora, što dovodi do toga da korisnici lako prihvate njihove odgovore kao tačne, iako oni mogu biti pristrasni, nepotpuni ili čak potpuno izmišljeni, piše TheNextWeb.
Zbog toga istraživači pozivaju na oprez u korišćenju AI modela, posebno u naučnom i obrazovnom kontekstu, gde je tačnost informacija od presudnog značaja.
Preporučuju da se LLM koriste kao alati koji mogu pomoći u obradi i interpretaciji podataka, ali ne kao primarni izvori znanja. Umesto toga, naglašavaju potrebu za pažljivom proverom i kritičkim razmišljanjem pri upotrebi informacija dobijenih od AI modela.
Preuzimanje delova teksta je dozvoljeno, ali uz obavezno navođenje izvora i uz postavljanje linka ka izvornom tekstu na novaekonomija.rs

Sva tri mobilna operatera koja posluju u Srbiji, objavila su da su pustila 5G mrežu. Međutim, malo ko zna šta je zapravo 5G mreža i zašto je ona značajna, da li je opasna po zdravlje i da li ćemo kada upalim...

U domovima se sve češće koriste uređaji koji međusobno komuniciraju i obavljaju zadatke bez stalnog nadzora. Svetlo, grejanje, sigurnosni sistemi i aparati mogu da rade po pravilima koja korisnik postavi. ...

Crni petak je iza nas, ali popusti još uvek traju. U petak, 28. novembra započeto je sezonsko sniženje u trgovinskim lancima, ali i uslužnim objektima. Trgovci su obećali sniženja i do 50 odsto, a Nova ekono...

Svega još par dana nas razdvaja do čuvenog Crnog petka koji bi po pravilu trebalo da bude jedan od dana kada pojedinac najjeftinije može da kupi sve moguće potrepštine, a da ne ostane bankrot. Međutim, da li...
PREMIUM sadržaji na platformi NovaEkonomija.rs Inforamcije koje imaju dodatnu vrednost
POGLEDAJ SVE