Nedjelja, 28 Aprila, 2024
Rubrika:

Oksford: AI halucinacije predstavljaju direktnu prijetnju nauci

''Veliki jezički modeli su dizajnirani da proizvode korisne i ubjedljive odgovore bez bilo kakvih apsolutnih garancija o njihovoj tačnosti ili usklađenosti sa činjenicama''

Veliki jezički modeli (LLM) koji se koriste i u aktuelnim četbotovima vještačke inteligencije (AI), pokazuju alarmantnu sklonost ka generisanju lažnih informacija koje predstavljaju kao tačne. To su drugim riječima praktično AI halucinacije i kao takve, predstavljaju rizike i direktnu prijetnju nauci zbog čega naučna zajednica ne bi trebalo da ih koristi kao izvor znanja, upozoravaju istraživači sa Oksfordskog internet instituta.

Prema njihovom radu objavljenom u časopisu Nature Human Behaviour, „veliki jezički modeli su dizajnirani da proizvode korisne i ubjedljive odgovore bez bilo kakvih apsolutnih garancija o njihovoj tačnosti ili usklađenosti sa činjenicama.“

Ovi AI modeli su trenutno na testiranju kao izvor znanja koji može da generiše informacije u odgovoru na pitanja. Međutim, podaci na kojima su oni obučeni ne moraju nužno biti faktografski tačni. Jedan od razloga za to je što ovi modeli često koriste onlajn izvore koji mogu sadržati netačne izjave, mišljenja i neprecizne informacije.

“Osobe koje koriste ovakve modele, često tehnologiji daju ljudske osobine, pri čemu joj vjeruju kao izvoru informacija sličnom ljudima”, objasnio je profesor Brent Mitelštat, koautor pomenutog rada za portal TheNextWeb.

On kaže da je to djelimično posljedica dizajna velikih jezičkih modela zbog kojeg oni zvuče ljudski dok razgovaraju sa korisnicima i odgovaraju na sva pitanja samopouzdano i sa dobro napisanim tekstom. Rezultat toga je da njihovi korisnici lako mogu biti ubijeđeni da su odgovori četbotova tačni čak i kada nemaju osnova u činjenicama ili predstavljaju pristrasnu ili djelimičnu verziju istine.

Kada je riječ o nauci i obrazovanju, tačnost informacija je od vitalnog značaja, a istraživači pozivaju naučnu zajednicu da koristi velike jezičke modele kao “prevodioce sa nulte tačke”. To znači da korisnici treba da pruže modelu odgovarajuće podatke i zatraže od njega da ih pretvori u zaključak ili kod, umjesto da se oslanjaju na sam model kao izvor znanja.

Na taj način postaje lakše projveriti da li su njegove tvrdnje tačne i u skladu sa prethodno pruženim informacijama. Iako će vještačka inteligencija „nesumnjivo“ pomoći u naučnim radnim tokovima, ključnoj je da naučna zajednica sa njom postupa odgovorno i održi jasna očekivanja o tome kako oni zaista mogu doprineti, tvrde istraživači. Na taj način naučnici će izbjeći širenje neutemeljenih informacija koje mogu dovesti do potpuno pogrešnih zaključaka.

Najnovije

Najčitanije

Povezano

Komentari

Subscribe
Notify of

0 Komentara
Inline Feedbacks
Pregedaj sve