veštačka inteligencijaFoto: SomYuZu / Shutterstock.com

Sve češće, političari, naročito kada žele da izbegnu odgovornost za neku neprijatnu situaciju, koriste veštačku inteligenciju (AI) kao izgovor, piše AP.

AI, na kraju krajeva, nije osoba: ne može da otkriva informacije, ne može da tuži nikoga, i često pravi greške, što dodatno otežava razlikovanje istine od laži u eri dezinformacija.

A kada je istinu teško utvrditi, oni koji ne govore istinu imaju prednost, tvrde analitičari. Ovaj fenomen se naziva „dividenda lažova“ (eng. liar’s dividend).

U utorak je bivši predsednik SAD Donald Tramp otvoreno prigrlio tu praksu. Kada su ga pitali o viralnom snimku na kojem se vidi kako neko baca predmet kroz prozor na višem spratu Bele kuće, odgovorio je:
„Ne, to je verovatno AI“.

Ova izjava usledila je nakon što je njegov tim za odnose s javnošću potvrdio novinarima da je snimak autentičan.

Ipak, Tramp, poznat po tome da često proglašava istinom ono što mu odgovara, jasno je stavio do znanja da u potpunosti podržava korišćenje veštačke inteligencije kao izgovor.

„Ako se desi nešto zaista loše“, rekao je Tramp novinarima, „možda ću jednostavno morati da okrivim veštačku inteligenciju (AI)“.

Tramp nije jedini.

Istog dana u Karakasu, ministar informisanja Venecuele, Fredi Nanez, doveo je u pitanje verodostojnost video-snimka koji je Trampova administracija objavila, tvrdeći da prikazuje američki napad na plovilo u Karipskom moru, koje je, navodno, pripadalo venecuelanskoj bandi Tren de Aragua i u kom je poginulo 11 osoba.

Video objavljen na mreži Truth Social prikazuje dug, višemotorni gliser na moru, kada se iznad njega pojavi bljesak svetlosti. Plovilo je zatim prikazano u plamenu.

„Na osnovu dostavljenog snimka, vrlo je verovatno da je kreiran korišćenjem veštačke inteligencije“, napisao je Nanez na svom Telegram nalogu, opisujući animaciju kao „gotovo da je crtać“.

Kriviti veštačku inteligenciju (AI) ponekad može biti i kompliment. (Na primer, teniser Aleksandar Bublik je na ESPN-u rekao da je njegov protivnik na US Openu, Janik Siner, „kao igrač generisan preko AI“ zbog svog talenta). Međutim, stručnjaci upozoravaju da, kada moćnici koriste ovu praksu, to može biti opasno.

Stručnjak za digitalnu forenziku Hani Farid godinama upozorava na rastuće sposobnosti AI „deepfake“ slika, glasova i video-snimaka da pomognu u prevarama ili političkim kampanjama dezinformacija, ali istovremeno ukazuje na dublji problem.

„Uvek sam tvrdio da je veći problem to što, kada uđete u svet u kome sve može biti lažno, ništa ne mora biti stvarno“, rekao je Farid, profesor na Univerzitetu Kalifornije u Berkliju. „Možete negirati bilo koju stvarnost jer sve što treba da kažete je: ‘To je deepfake'“.

To pre desetak ili dvadeset godina nije bilo tako, napomenuo je. Tramp je retko izvinjenje (ako je iko bio i uvređen) izrekao 2016. zbog svojih komentara o dodirivanju žena bez njihovog pristanka na zloglasnom snimku „Access Hollywood“.

Njegova protivnica, demokrata Hilari Klinton, priznala je da je pogrešila što je neke njegove pristalice nazvala „korpom odvratnih ljudi“.

Tobi Volš, glavni naučnik i profesor AI na Univerzitetu Novi Južni Vels u Sidneju, rekao je da okrivljavanje AI dovodi do problema ne samo u digitalnom svetu već i u stvarnom životu.

„To vodi ka mračnoj budućnosti u kojoj više ne držimo političare (ili bilo koga drugog) odgovornim“, kazao je Volš. „Nekada je, ako ste uhvaćeni kako nešto govorite na snimku, bilo neophodno da to i priznate. To više nije slučaj“.

Danijel K. Citron sa Pravnog fakulteta Univerziteta u Bostonu i Robert Česni sa Univerziteta Teksas predvideli su ovaj problem u istraživanju objavljenom 2019. godine, u kojem opisuju ono što su nazvali „dividenda lažova“.

„Ako javnost izgubi poverenje u ono što čuje i vidi i istina postane stvar mišljenja, tada moć prelazi u ruke onih čija su mišljenja najistaknutija – jačajući vlasti na tom putu“, napisali su u Kalifornia Law Review. „Skeptična javnost biće sklona da sumnja u autentičnost pravih audio i video dokaza“.

Ankete pokazuju da su mnogi Amerikanci oprezni prema AI. Oko polovine odraslih u SAD reklo je da ih povećana upotreba AI u svakodnevnom životu čini „više zabrinutim nego uzbuđenim“, prema anketi Pew Research Centra iz avgusta 2024. godine. Pewove ankete pokazuju da je zabrinutost ljudi za upotrebu AI porasla u poslednjim godinama.

Većina odraslih u SAD čini se da ne veruje informacijama generisanim AI kada znaju da je to izvor, prema anketi Quinnipiac iz aprila. Oko tri četvrtine reklo je da AI-generisanim informacijama mogu verovati samo „ponekad“ ili „skoro nikada“.

U toj anketi, oko 6 od 10 odraslih izrazilo je „veliku zabrinutost“ zbog političara koji koriste AI za širenje lažnih ili obmanjujućih informacija.

Imaju razloga za to, a Tramp je odigrao značajnu ulogu u zamagljivanju poverenja i istine.

Trampova istorija dezinformacija, pa čak i laži prilagođenih njegovoj naraciji, prethodi AI. Poznat je po korišćenju termina „fake news“ (lažne vesti), koji je postao popularan izraz za skepticizam prema izveštajima medija.

Lezli Stol sa CBS News rekla je da joj je Tramp 2016. godine van kamere rekao da pokušava da „diskredituje“ novinare kako se u njihove negativne priče ne bi verovalo.

Trampova tvrdnja u utorak da je AI kriv za video snimak sa prozora Bele kuće nije bila njegov prvi pokušaj da okrivi AI. Godine 2023. je tvrdio da je anti-Trampov Lincoln Project koristio AI u video spotu kako bi ga „predstavio u lošem svetlu“.

U spotu pod nazivom „Slabić“, ženski narator ismeva Trampa: „Hej, Donalde slab si. Izgledaš nestabilno. Treba ti pomoć da se krećeš.“ Ona dovodi u pitanje njegovu „muškost“, uz sliku dve plave pilule. Video nastavlja snimcima Trampa kako se muči sa rečima.

„Perverznjaci i gubitnici iz propalog i nekada raspuštenog Lincoln Projecta, i drugi, koriste AI u svojim lažnim televizijskim reklamama da bi me prikazali jednako lošim i patetičnim kao Pokvareni Džo Bajden,“, objavio je Tramp na Truth Social-u.

Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu. Pretplatite se na PDF izdanje lista Danas.

Komentari