Ponedjeljak, 29 Aprila, 2024
Rubrika:

Vještačka inteligencija ulazi i u političku arenu

AI generatori slika poput Stable Diffusion, DALL-E and MidJourney postali su izuzetno popularni u posljednjih nekoliko mjeseci

U aprilu 2023, nakon mnogo spekulacija, aktuelni predsjednik SAD Džozef Bajden zvanično je pokrenuo svoju kampanju za reizbor, putem video najave.

Istog dana, Republikanska stranka odgovorila je svojim video spotom, u kojem je napala predsjednika Bajdena.

U spotu predviđaju naredne četiri godine u SAD pod vođstvom predsjednika Bajdena, sa većim kriminalom, otvorenim granicama, ratom sa Kinom i ekonomskim kolapsom.

Video spot, koji nosi naslov „Pobedite Bajdena”, dostupan je na Tviteru i Jutjubu, a prikazuje kako bi izgledalo da predsjednik Bajden bude ponovo izabran 2024.

„Šta ako je najslabiji predsjednik kojeg smo ikada imali ponovo izabran“, piše na ekranu dok se prikazuju slike napravljene pomoću AI.

AI generatori slika poput Stable Diffusion, DALL-E and MidJourney postali su izuzetno popularni u posljednjih nekoliko mjeseci, piše Demostat.

Korisnici mogu jednostavno da opišu šta bi željeli da vide koristeći tekst, a zatim AI generiše sliku.

Na prvi pogled, mnogi ljudi ne primjećuju da je snimak kojim se kritikuje Bajden napravljen pomoću vještačke inteligencije, iako u gornjem lijevom uglu postoji disklejmer napisan sitnim slovima.

Na reklami se takođe vide sva obilježja vještački generisanih fotografija.

Za početak, lažni Bajden ima čudne ruke, kao što možete vidjeti na slici ispod.

Lažni Bajden i lažna potpredsjednica SAD Kamala Haris imaju i previše vidljivih zuba u vilici, što je još jedan siguran pokazatelj da su u pitanju vještački generisane slike.

Na prvi pogled ova reklama izgleda kao neobičan politički napad.

Međutim, iako je Republikanska partija bila transparentna u vezi sa upotrebom vještačke inteligencije, biračko tijelo je ipak uvučeno u novu eru političkog oglašavanja, u kojoj nema jasnih granica dokle se smije ići, ali posljedice korišćenja dezinformacija i lažnih vijesti mogu biti velike.

U januaru ove godine na Tviteru je kružio dipfejk video na kojem se činilo da predsjednik Bajden najavljuje da je poslati Amerikance da se bore u Ukrajini.

Na snimku je u početku bio prikazan natpis koji ga opisuje kao maštu vještačke inteligencije, ali se nakon što je određeno vrijeme cirkulisao mrežama disklejmer izgubio.

Pokazalo se zapravo koliko je lako da i sadržaj koji je u startu bio definisan kao produkt AI nakon više dijeljenja postane dezinformacija.

Dipfejk snimci mogu dovesti do loših posljedica ako se koriste u okviru geopoličke borbe ili kao oruđe u rukama terorističkih organizacija, ali isto tako mogu biti snažan alat i kad je riječ o političkom oglašavanju.

U trci da se proizvedu najprovokativniji video snimci, sada kada imamo AI tehnologiju, vjerovatno neće biti granica.

Ipak, slučaj sa Bajdenom nije prvi takav slučaj zabilježen u američkim kampanjama.

Naime, istraživači su 2015. godine otkrili da je Mekejnova kampanja koristila fotografije tadašnjeg kandidata na predsjedničkim izborima, Baraka Obame, u video snimcima koji su bili izmanipulisani tako da Obama ima tamniji ten.

U studiji o izbornom ciklusu za Kongres 2020. godine, izvještaj Centra za demokratiju i tehnologiju pokazuje je da su žene kandidata Afroamerikanaca duplo više mete kampanja lažnih i dezinformacija na mreži.

U Indiji, dipfejk tehnologija se koristi kao oružje protiv političarki i novinarki, a mnoge su prijavile da su njihove fotografije i video zapisi postavljeni na pornografske sajtove i da kruže internetom.

Slike generisane vještačkom inteligencijom i dipfejk snimci lako bi se mogli koristiti i za seksualizaciju političarki, kao i kreatora javnog mnjenja i drugih lidera, što može potkopati kredibilitet žena u kampanjama.

Takođe, sve realističniji lažni video snimci, audio snimci i fotografije mogli bi omogućiti političarima da poreknu odgovornost za bilo koji problematičan zvučni zapis ili video, tvrdeći da je gledaocima sve vrijeme trebalo da bude očigledno da su takvi materijali generisani vještačkom inteligencijom ili su lažni.

Platforme društvenih medija počele su da uvode nove politike za rješavanje problematike kad je u pitanju sadržaj generisan vještačkom inteligencijom, ali je izazovno integrisati ta nova pravila sa već postojećim kad je riječ o političkom sadržaju.

Meta je zabranila dipfejk snimke na svojim platformama, ali ostaje nepokolebljiva u odluci da se činjenice koje iznose političari ne provjeravaju.

TikTok je zabranio dipfejk snimke za privatne ličnosti, a kada je riječ o javnim ličnostima zabranjeni su samo ako reklamiraju neke proizvode ili krše druge uslove te mreže, kao što je promovisanje govora mržnje.

Duboko lažiranje snimaka javnih ličnosti u svrhu „umjetničkog ili obrazovnog sadržaja“ je ipak dozvoljeno.

Bajdenova administracija je u maju primila izvršne direktore tehnoloških kompanija u Bijeloj kući i objavila akcioni plan za „promovisanje odgovornih AI inovacija“.

U pododboru Senata za pravosuđe održano je saslušanje o potencijalnom nadzoru tehnologije vještačke inteligencije.

IzvorDanas

Najnovije

Najčitanije

Povezano

Komentari

Subscribe
Notify of

0 Komentara
Inline Feedbacks
Pregedaj sve