Često ne uspeva da razlikuju proverene medicinske činjenice od lažnih tvrdnji
Foto: ShutterstockSistemi veštačke inteligencije (AI) pokazuju visok stepen poverenja prema netačnim medicinskim informacijama ukoliko su one predstavljene putem izvora koji na prvi pogled deluju verodostojno ili stručno.
Prema najnovijoj studiji, modeli veštačke inteligencije koji se sve češće koriste za pružanje zdravstvenih saveta imaju značajan problem – podložni su dezinformacijama ako su one upakovane u format koji imitira naučni autoritet.
Istraživanje je pokazalo da AI čettbotovi i veliki jezički modeli (LLM) često ne uspevaju da razlikuju proverene medicinske činjenice od lažnih tvrdnji ako se te tvrdnje nalaze na sajtovima koji koriste medicinsku terminologiju, reference koje deluju ubedljivo ili vizuelni identitet koji podseća na relevantne zdravstvene institucije.
"Problem nije samo u tome što AI može da pogreši, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku," navodi se u izveštaju.
Dok se tehnologija ne usavrši, lekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć, a da se za bilo kakvu dijagnozu ili terapiju obrate kvalifikovanim medicinskim stručnjacima i proverenim institucijama.
NAPOMENA: Komentarisanje vesti na portalu UNA.RS je anonimno, a registracija nije potrebna. Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni. Komentari odražavaju stavove isključivo njihovih autora, koji zbog govora mržnje mogu biti i krivično gonjeni. Kao čitatelj prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa Vašim načelima i uverenjima. Nije dozvoljeno postavljanje linkova i promovisanjedrugih sajtova kroz komentare.
Svaki korisnik pre pisanja komentara mora se upoznati sa Pravilima i uslovima korišćenja komentara. Slanjem komentara prihvatate Politiku privatnosti.







