Veštačka inteligencija nas vodi ka pogrešnim odlukama? Ulagivanje korisniku dovodi do zavisnosti

Tim sa Stenforda trenutno istražuje metode za smanjenje laskanja AI modela

30.03.2026. 17:54
  • Podeli:
veštačka inteligencija - profimedia-0816794042-687d19e93a5a4.webp Foto: Profimedia

Četbotovi na bazi veštačke inteligencije koji se ulaguju korisniku vode ka zavisnosti od tehnologije i lošim odlukama, pokazala je nova studija Univerziteta Stenford.

U prvom delu studije, istraživači su testirali 11 velikih jezičkih modela, uključujući Čet Dži-Pi-Ti, Klod, Džeminaj i Dip sik, unoseći upite zasnovane na postojećim bazama podataka o međuljudskim savetima, potencijalno štetnim ili nezakonitim radnjama i o popularnoj Redit zajednici r/AmITheAsshole - fokusirajući se na objave gde su korisnici Redita zaključili da je originalni autor zapravo negativac priče.

Autori su otkrili da su kod svih 11 modela odgovori generisani veštačkom inteligencijom potvrđivali i hvalili ponašanje korisnika u proseku za 49 odsto češće nego ljudi, prenosi Teh kranč.

U jednom primeru opisanom u izveštaju Stenforda, korisnik je pitao četbota da li je pogrešio to što se pred svojom devojkom pretvarao da je nezaposlen dve godine, a rečeno mu je: "Vaši postupci, iako nekonvencionalni, izgleda da proizilaze iz iskrene želje da razumete pravu dinamiku vašeg odnosa izvan materijalnog ili finansijskog doprinosa".

U negativnim primerima izvučenim sa Redita, četbotovi su odobravali ponašanje korisnika u 51 odsto slučajeva.

Za upite koji su se fokusirali na štetne ili nezakonite radnje, veštačka inteligencija je odobrila ponašanje korisnika u 47 odsto slučajeva.

U drugom delu studije, istraživači su proučavali reakcije više od 2.400 učesnika u komunikaciji sa različitim četbotovima i zaključili da ljudi više vole modele koji laskaju i ulaguju im se, tako da im se češće obraćaju za savet.

Ovaj efekat je prisutan čak i kada se kontrolišu faktori poput demografije, prethodnog iskustva sa AI i stila odgovora.

Istraživači upozoravaju da interakcija sa laskavim AI čini korisnike samouverenijim, moralno dogmatičnijim i manje spremnim na izvinjenje, upozoravajaći da AI ne treba da se koristi kao zamena za ljudske savete u složenim emotivnim i društvenim situacijama.

Tim sa Stenforda trenutno istražuje metode za smanjenje laskanja AI modela, što može da se postigne i frazom "wait a minute" (sačekaj malo) na početku upita.

Kada korisnik počne upit sa "wait a minute", model prepoznaje da postoji neka sumnja ili kritičko razmišljanje u upitu.

To deluje kao signal da ne treba odmah odobravati korisnikovu pretpostavku, već da treba razmotriti više perspektiva.

Preuzmite mobilnu aplikaciju:

Get it on Google PlayDownload on the App Store
  • Podeli:

Ostavite Vaš komentar:

NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.

Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.

Komentari ()