Veštačka inteligencija - novi alat za širenje dezinformacija 1Ilustracija Foto: Pixabay/Geralt

Ove godine počela je nova era dezinformisanja u kojoj je tehnološki napredak uveo drugačiju dinamiku u proizvodnju i širenje lažnog i namerno i nenamerno obmanjujućeg sadržaja – korišćenjem veštačke inteligencije. Moćna tehnologija sposobna je da proizvodi sadržaj u različitim formatima – tekstualnim, audio ili vizuelnim.

Uprethodnom tekstu pisali smo o primerima dezinformisanja i lažnih vesti koje su proizvedene uz pomoć veštačke inteligencije – među kojima su lažne fotografije pape u beloj Balenciaga jakni i bivšeg predsednika SAD Donalda Trampa koji je navodno uhapšen i sproveden u zatvor.

U ovom tekstu osvrnućemo se na to na koji će način na širenje dezinformacija uticati tekstualni izraz kao proizvod generativnih AI alata, a na koji način vizuelni izraz.

Tekstualni izraz

Generativni AI alati sa prvenstveno tekstualnim izlazima, kao što je Open AI Chat GPT ili slični programi i alati koji su poznati kao takozvani ,,modeli velikih jezika’’ (Large Language Models – LLM), imaju mnogo potencijalnih rizika za proizvodnju i širenje pogrešnih vesti i dezinformacija.

Tu čak ostavljamo po strani probleme koji nemaju striktno veze sa kvalitetom informacija, kao što je, na primer, zabrinutost za privatnost, zbog čega je italijanska agencija za zaštitu podataka 31. marta ove godine zabranila upotrebu ChatGPT-a u toj zemlji.

Dakle, pre svega, AI alati sa tekstualnim izrazima su skloni onome što je poznato kao „halucinacije“, odnosno činjeničnim greškama u informacijama koje se daju korisniku.

Javne prezentacije LLM-a od strane tehnoloških giganata kao što su Microsoft i Google bile su ophrvane greškama, uključujući i promotivne video snimke.

Stručnjaci upozoravaju da takve greške nisu obične greške sistema, već neizbežni ishodi tehnologije u njenom trenutnom stanju.

Naime, tehnologija je odlična u predviđanju sledeće reči u rečenici, ali nema pojma šta rečenica zapravo znači.

Ukratko, način na koji su dizajnirani i njihovo trenutno stanje razvoja čine LLM dobrim alatom u nekim stvarima, kao što je pisanje koda, i lošim u mnogim drugim, među kojima su igranje slagalica ili pružanje tačnih informacija.

Takođe, tu je i pitanje obima.

LLM su napravljeni da proizvode i tekstove o teorijama zavere ili urbanim mitovima, a mnogi analitičari su istakli rizik od izazivanja „pomame za lažnim vestima“.

Važno je istaći da je OpenAI prepoznao moguću zloupotrebu svoje tehnologije za kampanje dezinformacija i pokušao da predvidi budući razvoj u analizi koja je razvijena sa nezavisnim istraživačima, a u kojoj se bave „potencijalnim pretnjama i rešenjima“.

Ipak, aspekt koji najviše zabrinjava kad je reč o chat botovima koji koriste LLM proizilazi iz direktnog pristupa koji daje korisnicima personalizovan, ljudski, konverzacijski način predstavljanja sadržaja.

U poređenju sa tradicionalnim pretraživačima, alati kao što je ChatGPT pružaju jedinstven odgovor koji se lako može protumačiti kao najbolji ili najtačniji rezultat njihove pretrage informacija na mreži.

Korisnici – posebno kada nisu na odgovarajući način informisani o tehnologiji, njenim prednostima i slabostima, kao i o tome šta je trenutno sposobna da uradi – mogli bi biti prevareni da se više oslanjaju na rezultate koje pruža konverzacijski chatbot nego drugi, otvoreniji alati za traženje informacija, što im otežava da pravilno procene verodostojnost rezultata i na kraju da ispolje svoje kritičko razmišljanje.

Da stvari budu još gore, korisnici pristupaju LLM-ovima bez posredovanja: dok preko tradicionalnih pretraživača pristupaju listi rezultata koji su proizvedeni i objavljeni na drugom mestu, u izvesnom smislu skenirajući ono što je već tamo, preko čet robota mogu direktno da pristupe „novim“ informacijama, koje proizvodi LLM kao odgovor na njihov konkretan upit.

Ovaj neposredan pristup čini te informacije praktično nemogućim za proveru činjenica.

Naime, LLM proizvodi lažne ili obmanjujuće rezultate i dostavlja ih direktno korisnicima, dok su do sada dezinformacije morale biti objavljene negde – bilo da je to veb stranica, nalog na društvenim mrežama, podkast – da bi bile dostupne drugim korisnicima.

Zato su potrebne informativne kampanje za javnost kako bi se jasno razjasnile granice alata, kao i njegovi rizici.

Kad je reč o potencijalnoj upotrebi generativne veštačke inteligencije za proveru činjenica, istraživači sa Univerziteta u Cirihu otkrili su da je ChatGPT u 72 odsto slučajeva bio u stanju da precizno kategorizuje proverene izjave kao tačne ili netačne.

Vizuelni izraz

Problem sa vizuelnim dezinformacijama koje generiše AI je u velikoj meri drugačiji.

U trenutnoj fazi, korisnik je taj koji uvek mora da pruži upit sistemu da bi dobio sliku.

U ovom slučaju, za razliku od tekstualnih izlaza, nije moguće da korisnik ispituje mašinu, a da ne zna da je rezultat drugačiji od realnosti.

Dezinformacije se ovde mogu proizvesti samo namerno.

Generisana slika od strane vebsajta koji koristi veštačku inteligenciju

Ovo je u izvesnom smislu jednostavna evolucija: do sada, dezinformacije su se proizvodile jednostavnim predstavljanjem starih slika i video zapisa, koje su pogrešno prikazane i dekontekstualizovane kako bi prikazale trenutne događaje.

Grube manipulacije, ali češće samo fotografije van konteksta, ipak su mogle da imaju značajan uticaj na javnost.

Međutim, količina sadržaja koju generativna veštačka inteligencija može da pruži onome ko proizvodi ovu vrstu dezinformacija je potencijalno beskrajna.

Pored problema kvantiteta, postoji i problem kvaliteta.

Kako tehnologija postaje sve naprednija, moguće je predvideti da će u budućnosti rezultati fotografija urađenih uz pomoć veštačke inteligencije biti nerazlučivi od stvarnih slika za neobučenog, ali čak i stručnog korisnika.

Zbog toga je ključno da osobe koje se bave proverom činjenica, kao i obični korisnici, dobiju tehnološke alate koji mogu da otkriju slike i video zapise generisane veštačkom inteligencijom.

Mogla bi se istražiti i druga rešenja, kao što je obavezan vodeni žig na vizuelnom sadržaju generisanom veštačkom inteligencijom ili drugi tehnički markeri.

Iz perspektive dezinformacija, alatke nalik chatbotovima zasnovane na generativnoj veštačkoj inteligenciji daju korisnicima neposredan pristup rezultatima koji nisu nužno pouzdani ili tačni; vizuelni rezultati generativnih AI alata daju zlonamernim akterima neviđenu sposobnost da proizvode realistične slike i video zapise.

Potrebno je više istraživanja da bi se bolje razumelo kako pravilno proceniti rizike koje predstavlja veštačka inteligencija i kako se sa njima uhvatiti u koštac.

Na početku nove ere dezinformacija ključno je da medijski profesionalci, osobe koje se bave proveravanjem činjenica, programeri i obični korisnici ujedinili snage kako bi se osiguralo da se ova tehnologija, sa svojim brojnim uzbudljivim aspektima i svojim inovativnim potencijalom, koristi na obogaćujući, etički i odgovoran način.

Pratite nas na našoj Facebook i Instagram stranici, ali i na Twitter nalogu. Pretplatite se na PDF izdanje lista Danas.

Komentari