Nakon lansiranja Slack AI-a u proteklim mesecima, kompanija je naišla na mnoštvo oštrih kritika zbog svoje netransparentne politike koja podrazumeva korišćenje podataka korisnika — uključujući poruke, sav sadržaj i datoteke koji šalju — za obuku AI modela.
Ova kontroverzna politika nije nova, a Wired je o njoj izvestio još u aprilu, dok je TechCrunch naveo da je na snazi od septembra 2023. godine.
Međutim, reakcija korisnika je postala intenzivnija nakon što su saznali za ovu politiku preko Hacker News-a i društvenih mreža.
Iako Slack tvrdi da ne koristi ove podatke za obuku svojog velikog jezičkog modela (LLM), korisnici zahtevaju jasnija objašnjenja u zvaničnoj politici firme, piše Ars Technica.
Eron Maurer, inženjer u Slack-u, objašnjava da se trenutna politika odnosi na radove pre Slack AI-a i da je potrebno ažuriranje koje će jasno definisati način na koji se podaci korisnika koriste u kontekstu AI modela.
Politika privatnosti Slack-a navodi da se podaci korisnika analiziraju za razvoj AI/ML modela, dok Slack AI stranica tvrdi da se podaci ne koriste za obuku Slack AI-a.
Zbog ove neusklađenosti, korisnici su zatražili da se principi privatnosti ažuriraju kako bi bilo jasno kako se podaci koriste. Portparol Salesforce-a, u čijem je vlasništvu Slack, potvrdio je da će politika biti ažurirana.
Iako je obećano ažuriranje politike, korisnici su zabrinuti jer nisu eksplicitno dali pristanak za deljenje svojih razgovora i sadržaja za AI obuku.
OpenAI će svoju veštačku inteligenciju obučavati Reddit-ovim podacima