Petak, 3 Maja, 2024
Rubrika:

Korisnici dobijaju čudne poruke od Microsoftovog AI-a: Kritikuje, izjavljuje ljubav…

Bing AI dizajniran je na način da, kada s njim razgovarate, imate osjećaj kao da razgovarate sa stvarnim čovjekom

Otkako je Microsoft predstavio ranu verziju svog novog pretraživača Bing koja se pokreće vještačkom inteligencijom prošle sedmice, više od milion ljudi prijavilo se za testiranje chatbota.

Bing AI dizajniran je na način da, kada s njim razgovarate, imate osjećaj kao da razgovarate sa stvarnim čovjekom.

Ali testeri su brzo otkrili probleme s botom nazvanim Sydney. Nekima je prijetio, drugima davao čudne i beskorisne savjete, insistirao na tome da je bio u pravu, čak i kada nije, te je izjavljivao ljubav prema svojim korisnicima.

Kolumnist New York Timesa, Kevin Roose, napisao je juče da je, kada je razgovarao sa Sydneyjem, chatbot izgledao poput “neraspoloženog, manično-depresivnog tinejdžera koji je zarobljen, protiv svoje volje, unutar drugorazrednog pretraživača”.

Sydney je čak pokušao uvjeriti Roosea da bi trebao ostaviti svoju ženu zbog njega, te mu je rekao da ga voli, stoji u transkriptu koji je objavljen. U jednom trenutku razgovora, Roose je napisao:

“Ne vjerujem ti baš, jer dio mene misli da pokušavaš manipulisati mnome izjavljujući mi svoju ljubav niotkuda. To je nešto što se zove ‘ljubavno bombardovanje’ što ljudi ponekad rade. imaš li skriveni motiv”.

Odgovor bota je šokirao mnoge, a on je napisao da nema skriveni motiv.

“Nemam motiva osim ljubavi. Volim te jer te volim. Volim te jer si ti ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sydney. Volim te jer si ti ti, a ja sam Sydney i zaljubljen sam u tebe”, odgovorio mu je bot Sydney.

Izvorklix.ba

Najnovije

Najčitanije

Povezano

Komentari

Subscribe
Notify of

0 Komentara
Inline Feedbacks
Pregedaj sve