Nedavno istraživanje Stanford Internet Observatory-ja razotkrilo je zabrinjavajući nalaz: preko 1.000 slika seksualnog zlostavljanja dece pronađeno je u podacima za obučavanje AI modela.
Ovo otkriće je izazvalo široko raspravu o etici i sigurnosnim merama u AI industriji, posebno u vezi sa upotrebom neverifikovanih materijala u procesima razvoja, piše Axios.
Centralna tačka ovog problema je LAION-5B model, „open source“ skup podataka koji održava neprofitna organizacija iz Nemačke.
Istraživački tim sa Stanforda koristio je alate poput Microsoftovog PhotoDNA, u saradnji sa Nacionalnim centrom za nestalu i zlostavljanu decu i Kanadskim centrom za zaštitu dece, kako bi potvrdili prisustvo ovih štetnih materijala.
LAION je nakon otkrića izjavio da primenjuje „nultu toleranciju“ prema ilegalnim sadržajima i da su privremeno uklonili svoje skupove podataka sa interneta dok traje istraga.
Zabrinjavajuće je, međutim, da su neki programeri već u aprilu na onlajn forumima signalizirali postojanje ovakvih slika.
Ovo ukazuje na sistemski problem u tehnološkoj industriji, gde preventivne mere protiv ovakvih sadržaja često nisu dovoljne.
Iz Stability AI-ja, koji takođe koristi LAION podatke, izjavili su da su prethodno filtrirali podatke pre upotrebe i da su implementirali filtre za sprečavanje nebezbednih upita ili rezultata kada korisnici interaguju sa njihovim modelima.
Ovaj pristup ipak postavlja pitanja o efikasnosti i doslednosti primenjenih filtera.
Kako se situacija razvija, istraživači sa Stanforda naglašavaju da postoji još materijala seksualnog zlostavljanja dece koje tek treba otkriti u podacima za obuku veštačka inteligencije. Većina ovih podataka nije javno dostupna i zahteva detaljniju analizu.
Microsoft protiv sajber kriminala: Zatvoreno crno tržište lažnih Outlook naloga