Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama, pokazala studija

Četbotovi na bazi veštačke inteligencije koji se ulaguju korisniku vode ka zavisnosti od tehnologije i lošim odlukama, pokazala je nova studija Univerziteta Stenford.

30.03.2026. 19:34

Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama, pokazala studija
Foto: Tanjug/AP/Kiichiro Sato

U prvom delu studije, istraživači su testirali 11 velikih jezičkih modela, uključujući Čet Dži-Pi-Ti, Klod, Džeminaj i Dip sik, unoseći upite zasnovane na postojećim bazama podataka o međuljudskim savetima, potencijalno štetnim ili nezakonitim radnjama i o popularnoj Redit zajednici r/AmITheAsshole - fokusirajući se na objave gde su korisnici Redita zaključili da je originalni autor zapravo negativac priče.

Autori su otkrili da su kod svih 11 modela odgovori generisani veštačkom inteligencijom potvrđivali i hvalili ponašanje korisnika u proseku za 49 odsto češće nego ljudi.

U jednom primeru opisanom u izveštaju Stenforda, korisnik je pitao četbota da li je pogrešio to što se pred svojom devojkom pretvarao da je nezaposlen dve godine, a rečeno mu je: "Vaši postupci, iako nekonvencionalni, izgleda da proizilaze iz iskrene želje da razumete pravu dinamiku vašeg odnosa izvan materijalnog ili finansijskog doprinosa".

Tim sa Stenforda istražuje metode za smanjenje laskanja AI modela

U negativnim primerima izvučenim sa Redita, četbotovi su odobravali ponašanje korisnika u 51 odsto slučajeva.

Za upite koji su se fokusirali na štetne ili nezakonite radnje, veštačka inteligencija je odobrila ponašanje korisnika u 47 odsto slučajeva.

U drugom delu studije, istraživači su proučavali reakcije više od 2.400 učesnika u komunikaciji sa različitim četbotovima i zaključili da ljudi više vole modele koji laskaju i ulaguju im se, tako da im se češće obraćaju za savet.

Foto: Tanjug/AP/Kiichiro Sato

Ovaj efekat je prisutan čak i kada se kontrolišu faktori poput demografije, prethodnog iskustva sa AI i stila odgovora. Istraživači upozoravaju da interakcija sa laskavim AI čini korisnike samouverenijim, moralno dogmatičnijim i manje spremnim na izvinjenje, upozoravajaći da AI ne treba da se koristi kao zamena za ljudske savete u složenim emotivnim i društvenim situacijama.

Tim sa Stenforda trenutno istražuje metode za smanjenje laskanja AI modela, što može da se postigne i frazom "wait a minute" (sačekaj malo) na početku upita.

Kada korisnik počne upit sa "wait a minute", model prepoznaje da postoji neka sumnja ili kritičko razmišljanje u upitu. To deluje kao signal da ne treba odmah odobravati korisnikovu pretpostavku, već da treba razmotriti više perspektiva.

Preuzmite Newsmax Balkans aplikaciju:

Komentari (0)