Utorak, 30 Aprila, 2024
Rubrika:

Da li je čovjekova borba sa dipfejkom unaprijed osuđena na propast?

Iako AI napreduje vrtoglavom brzinom, stručnjaci se bore da dođu do novih metoda za suzbijanje ovakvih vrsta dezinformacija

Znaci da je slika ili video-snimak djelo generativne vještačke inteligencije postaju sve manje primijetni kako se tehnologija poboljšava. Iako AI napreduje vrtoglavom brzinom, stručnjaci se bore da dođu do novih metoda za suzbijanje ovakvih vrsta dezinformacija.

Sa više od 4.000 dijeljenja, 20.000 komentara i 100.000 reakcija na Fejsbuku, fotografija starije žene, koja sjedi iza domaće torte za 122. rođendan, obišla je svijet. „Počela sam da ukrašavam torte od svoje pete godine“, navodi se u pratećem natpisu.

Slika je nesumnjivo lažna. Da je nisu odale svijeća koja kao da lebdi u vazduhu ili čudne amorfne mrlje na torti u prvom planu, onda bi svakako bilo sumnjivo što za slavljenicu nismo čuli kao najstariju osobu na svijetu i to čak pet godina stariju od aktuelnog nosioca titule tog rekorda.

Srećom, nema mnogo onih koji su razočarani zbog toga što nisu uspjeli da pronađu superstogodišnju dekoraterku torti. To je dobro, jer kako generativna vještačka inteligencija postaje sve bolja i bolja, sigurni znaci za otkrivanje lažnog sadržaja sve su rjeđi. Zbog toga smo ušli u trku s vremenom – možemo li smisliti druge načine da uočimo lažni sadržaj prije nego što on postane toliko uvjerljiv da ga ne možemo razlikovati od stvarnosti?

„Ponestaje nam vremena u kojem smo u mogućnosti da vršimo ručno otkrivanje. Modeli zasnovani na vještačkoj inteligienciji razvijaju se brzinom i tempom koji je, sa tehničke tačke gledišta, nevjerovatan i prilično alarmantan“, upozorio je Majk Spirs konsultant za AI koji radi na borbi protiv dezinformacija.

Prema njegovim riječima, postoje razne vrste „ručnih tehnika“ za uočavanje lažnih slika od pogrešno napisanih riječi, do neprikladno glatke ili naborane kože.

„Ruke su klasika, a i oči prilično dobro otkrivaju ‘lažnjake’. Ali čak i danas, to oduzima mnogo vremena i to nije nešto što možemo da ubrzamo. A vrijeme ističe – modeli postaju sve bolji i bolji“, objašnjava Spirs.

Od 2021. godine kada je „OpenAI“ predstavio alat “Dall-E” za generisanje slika, objavljene su tri verzije, od kojih je svaka radikalno bolja od prethodne. Indi konkurent “Midjourney” objavio je šest verzija u istom periodu, dok je model “Stable Diffusion” besplatnog i otvorenog koda dostigao svoju treću verziju, a „Guglov“ „Džemini“ se takođe pridružio u nekom momentu.

Kako je tehnologija postajala moćnija, postajala je i lakša za korišćenje. Najnovija verzija “Dall-E”-ja ugrađena je u modele “ChatGPT” i „Bing“, dok „Gugl“ korisnicima nudi svoje alate besplatno.

Tehnološke kompanije počele su da reaguju na poplavu generisanih medija. Koalicija za porijeklo i autentičnost sadržaja, čiji su članovi, između ostalih, Bi-Bi-Si, „Gugl“, „Majkrosoft“ i „Soni“, propisala je standarde koji se odnose na vodeni žig (watermark) i etiketiranje, a u februaru je „OpenAI“ najavio da će ih usvojiti za verziju alata za generisanje slika “Dall-E 3”.

Sada, slike koje generiše ovaj alat imaju oznaku da su nastale uz pomoć AI i mašinski čitljiv vodeni žig. Kompanija „Meta“ je takođe počela da dodaje sopstvene oznake sadržaju koji je generisan uz upotrebu AI i kaže da će ukloniti objave bez oznake.

Takve politike mogu pomoći u rješavanju nekih od najvirusnijih oblika širenja dezinformacija, poput šala ili satire koja se širi izvan svog prvobitnog konteksta.

Zamke označavanja sadržaja koji je generisan uz pomoć AI
Međutim, prisustvo oznaka takođe može stvoriti lažni osjećaj sigurnosti, kaže Spirs: „Ako se javnost navikne da vidi slike koje je generisala AI sa oznakom na sebi, da li to znači da treba da vjeruju u vjerodostojnost bilo koje slike bez žiga?“.

To može da se razvije u problem, pošto označavanje nikako nije univerzalno niti će biti, najvjerovatnije. Velike kompanije poput „OpenAI“ bi mogle da pristanu da označavaju svoje kreacije, ali start-api kao što je “Midjourney” nemaju kapacitet da odvoje dodatno vrijeme svojih inženjera za rad na ovom problemu.

A tek kod projekata otvorenog koda, kao što je “Stable Diffusion”, nemoguće je korisnike natjerati na primjenu vodenog žiga, pošto je pravljenje sopstvenog modela uvijek opcija.

Uz to uočavanje vodenog žiga ne mora nužno imati efekat koji bi neko želio, kaže Henri Parker, šef vladinih poslova u grupi za provjeru činjenica „Lodžikal“.

Kompanija koristi i ručne i automatske metode za provjeru sadržaja, navodi Parker, ali označavanje može biti samo djelimično uspješno.

„Ako nekome kažete da gleda dipfejk (deepfake) sadržaj prije nego što ga uopšte pogleda, socijalna psihologija gledanja tog klipa je toliko moćna da će ga i dalje doživljavati kao činjenicu. Dakle, jedino što možete da uradite je da pitate kako možemo da smanjimo vrijeme tokom kojeg je ovaj sadržaj u opticaju“, objašnjava Parker.

Pobijediti detektore nije cilj samo zlonamjernih
Na kraju krajeva, to će zahtijevati automatsko pronalaženje i uklanjanje sadržaja generisanog vještačkom inteligencijom.

Ali to je veoma teško, poručuje Parker: „Već pet godina radimo na ovome, pokušavamo i prilično smo iskreni u vezi sa činjenicom da smo došli do oko 70 odsto, u smislu tačnosti koju možemo da postignemo. Kratkoročno gledano, problem je trka između otkrivanja i stvaranja: čak i generatori slika koji nemaju zle namjere će željeti da pokušaju da pobijede detektore, jer je krajnji cilj da stvore nešto tako istinito kao što je fotografija“.

U grupi „Lodžikali“ misle da je odgovor da se posmatraju stvari oko slike. „Kako zapravo pokušavate da sagledate način na koji se ponašaju akteri dezinformacija“, pita Parker i dodaje da to znači da treba pratiti razgovore na interneti kako bi oni koji imaju zle namere bili uhvaćeni u fazi planiranja na sajtovima kao što su 4chan i Redit.

Ipak, uz to i uz nadzor sumnjivih naloga, problem lažnih pozitivnih rezultata bio bi prisutan.

Drugi su optimističniji. Ben Kolman, izvršni direktor start-apa “Reality Defender”, na primjer smatra da će uvijek postojati mogućnost otkrivanja da slika nije prava.

Dovoljno je, kako kaže, doći do zaključka da postoji mogućnost da je nešto lažno, bez definitivne potvrde.

Ti znaci mogu biti bilo šta, od tragova finih filtera koji su su doveli do previše glatkih objekata, pa sve do video-sadržaja u kojem nije moguće pronaći nevidljivo, ali za preciznije alate uočljivo crvenilo koje se pokazuje na licu sa svakim otkucajem srca.

Tehnologija je, naravno, samo dio rješenja, ali je mjesto odakle treba početi. Jer ako ljudi zaista vjeruju da je fotografija 122-godišnje žene sa tortom koju je sama ispekla autentična, onda neće biti potrebni najsavremeniji generatori slika da ih prevare da povjeruju u druge, daleko štetnije stvari.

Najnovije

Najčitanije

Povezano

Komentari

Subscribe
Notify of

0 Komentara
Inline Feedbacks
Pregedaj sve