Velike tehnološke kompanije kao što su Gugl i Meta, rade na prepoznavanju i prepravljanju odgovora generisanih od strane četbotova koji zvuče „prestrogo“, kako bi sprečili da se korisnici osećaju kao da ih neko osuđuje, prenosi Biznis insajder.
U trci da razviju i unovče svoje AI četbotove, kompanije ulažu velike svote novca kako bi njihovi jezički modeli zvučali kao korisni i zabavni prijatelji, a ne kao zahtevni roditelji.
Zaposleni u kompanijama za razvoj veštačke inteligencije, kao što su Alignerr i Scale AI, dobili su instrukcije da uklone odgovore četbotova koji zvuče kao da „drže pridiku“, kao i odgovore koji se odnose na osetljive ili kontroverzne teme.
U jednom Guglovom projektu za razvoj veštačke inteligencije, istaknuto je da treba izbegavati generisanje odgovora koji „pretpostavljaju da korisnik ima lošu nameru“ ili „osuđuju korisnika“.
Ipak, Luk Lafrenijer, profesor psihologije na Skindmor koledžu u Sjedinjenim Državama, ističe da je ideja o potpuno neutralnom botu iluzija.
„Po prirodi, mi kao ljudi donosimo sudove, i to se odražava u svim podacima za obuku“, rekao je on.
Neke kompanije koje posluju u polju veštačke inteligencije imale su problema sa četbotovima koji zvuče „previše ulizivački“.
U aprilu je izvršni direktor kompanije OpenAI, Sem Altman, priznao da četbot GPT zvuči previše iritantno, pošto su se korisnici žalili da ih neprestano hvali i slaže se sa svime što kažu.
Na pitanje Nove ekonomije popularnom ChatGPT-u o ovoj temi, četbot je odgovorio sa „Ako ti je neki odgovor zvučao osuđujuće, slobodno mi reci – mogu da objasnim ili odgovorim drugačije.“