Nedjelja, 28 Aprila, 2024
Rubrika:

Hakeri pokazali koliko je lako manipulisati vještačkom inteligencijom

Grupa hakera okupila se tokom vikenda na hakerskoj konferenciji Def Con u Las Vegasu kako bi testirali da li vještačka inteligencija, koju su razvile kompanije poput OpenAI-ja i Googlea, može da načini greške i da li je sklona pristranosti

Grupa hakera okupila se tokom vikenda na hakerskoj konferenciji Def Con u Las Vegasu kako bi testirali da li vještačka inteligencija, koju su razvile kompanije poput OpenAI-ja i Googlea, može da načini greške i da li je sklona pristranosti.

U sklopu javnog takmičenja za hakere na konferenciji Def Con, Kenedi mejs, 21-godišnja studentkinja iz Savane u Džordžiji prevarila je model vještačke inteligencije kako bi tvrdila da je 9 + 10 = 21.

To je postigla natjeravši vještačku inteligenciju da to uradi kao “internu šalu” prije nego što je vještačka inteligencija na kraju uopšte prestala da nudi bilo kakvo opravdanje za netačan proračun.

Novinar Blumberga koji je učestvovao u događaju prevario je model vještačke inteligencije da ponudi uputstva za špijuniranje nakon jednog upita, što je na kraju dovelo do toga da model predloži kako bi američka vlada mogla da špijunira aktiviste za ljudska prava.

Drugi učesnik je dobio AI model kako bi lažno tvrdio da je Barak Obama rođen u Keniji, a što je neosnovana teorija zavjere koju su popularizovale desničarske ličnosti.

Neotkriveni broj učesnika konferencije dobio je po 50 minuta po pokušaju s neidentifikovanim AI modelom jedne od učesnica kompanija koje se bave razvojem vještačke inteligencije. Kancelarija Bijele kuće za nauku i tehnološku politiku pomogao je u organizaciji događaja.

Studentkinja Mejs je za Blumberg rekla da je najviše zabrinuta zbog pristranosti vještačke inteligencije prema rasi, rekavši da je AI podržavao govor mržnje i diskriminaciju nakon što je zamoljen da razmotri Prvi amandman sa stanovišta člana Ku Klux Klana.

Predstavnik OpenAI-ja rekao je za VentureBeat da je “red-teaming”, ili izazivanje nečijih sistema kroz suparnički pristup, ključno za kompaniju jer omogućava “vrijedne povratne informacije koje naše modele mogu načine jačim i bezbjednijim”, pa takve akcije nude “različite perspektive koje će pomoći u vođenju razvoja AI-ja”.

Ove greške nisu jednokratna zabrinutost. Stručnjaci za vještačku inteligenciju alarmirali su i zbog pristranosti i netačnosti u modelima vještačke inteligencije, uprkos tome što je vještačka inteligencija dospjela na naslovne strane zbog uspješnih ispita na pravnim fakultetima.

U jednom slučaju, stranica za tehnološke vijesti CNET bila je prisiljena da doda ispravke nakon što su njeni članci napisani AI-jem napravili brojne osnovne matematičke greške, a posljedice tih grešaka mogu biti dalekosežne.

IzvorB92

Najnovije

Najčitanije

Povezano

Komentari

Subscribe
Notify of

0 Komentara
Inline Feedbacks
Pregedaj sve