Futuristic female cyborg - stock photo

Getty Images
Sve više komuniciramo sa robotima a ne sa ljudima

Sve donedavno, mogli ste da zasipate Biu uvredama i da je nazivate pogrdnim imenima, a ona bi vam samo odgovorila jednim pitomim: „Ne razumem, možete li da ponovite?“.

Upotrebite sa njom takav rečnik danas i virtuelna asistentkinja brazilske banke Bradesko mogla bi da vam odgovori jednim strožim:

„Te reči ne smete da koristite ni sa mnom ni sa bilo kim drugim.“

Ili još jačim: „Za vas je to možda šala, za mene je nasilje.“

Promena Bijinog tona usledila je pošto je Bradesko otkrio 95.000 poruka prošle godine upućenih sistemu veštačke inteligencije koje su sadržale uznemiravanje ili seksualno zlostavljanje.

Najblaže, koje je njihov tim za kontrolu kvaliteta pronašao pretragom na osnovu uvredljivih izraza koji su korišćeni, bili su zahtevi za golotinjom.

Ali drugi su bili toliko vulgarni da ih kompanija neće obelodanjivati.

„To su veoma vulgarne interakcije“, kaže za BBC izvršna direktorka kompanije Glausimar Petikov.

„Ne mogu da se nateram da vam ih ponovim.“

A TV ad by Bradesco showing shows actors looking empowered

Bradesco
Kompanija Bradesko unapredila je rečnike virtualnih asistentkinja

Iako nije najjasnije zašto bi neko koristio takav rečnik sa virtuelnom asistentkinjom, Petikov je opisala seksualne poruke kao „krajnje neprimerene“ i oblik uznemiravanja „koji ne može da se pomeša ni sa čim drugim“.

Da bi se izborili sa takvim napadima, Bijini softverski scenariji ažurirani su tako da nateraju mušterije da joj se obraćaju sa većim poštovanjem inače neće moći da nastavi rad.

Novi odgovori su „manje servilni i manje pasivni“, a osmišljeni su tako da „edukuju“ mušterije i podstaknu ih na „razmišljanje“ o svojim seksističkim stavovima, rekla je Petikov.

Ai- Da je napravljena uz pomoć algoritama veštačke inteligencije.
The British Broadcasting Corporation

„Odražava stvarni život“

Bradesko je reklamirao ovaj potez u TV spotovima u kojima su glumice delovale osnaženije kad robot promeni nastup.

Druge velike brazilske kompanije obećale su da će slediti njihov primer, u oblastima koje variraju od kozmetike i proizvodnje do komunalija i uslužnih delatnosti.

Lu, glasovna asistentkinja maloprodajnog giganta Magazin Luiza, ne samo da strogo odgovara na verbalne uvrede, već ima i „dugme za paniku“ kako bi omogućila ženama da diskretno uzbune vlasti ako je u toku porodično nasilje.

Ona je postala čak i influenserka na društvenim mrežama, sa milionima pratilaca kojima redovno govori o rodnim pitanjima – uz pomoć tima pravih ljudi koji upravljaju njenim interakcijama na društvenim mrežama.

Lu

Magalu
Lu, glasovna asistentkinja maloprodajnog giganta Magazin Luiza – ima milione pratilaca na društvenim mrežama

Ali ne vide svi smisao u iskorišćavanju veštačke inteligencije za ovakvu vrstu borbe, budući da uznemiravanje nije usmereno ka osobama od krvi i mesa sa osećanjima.

„Zašto pravimo toliku halabuku oko glasovne asistentkinje koja nije čak ni ljudsko biće? Upravo zato što ovaj problem odražava pravi život“, objašnjava Fabio Eon, koordinator društvenih nauka pri UNESKO-u za Brazil, koji je poveo kampanju za promene kod glasovnih asistentkinja kompanija.

Eon kaže da su verbalno uznemiravanje i seksualno zlostavljanje samo deo šireg problema.

U Brazilu je prošle godine bilo 105.000 prijavljenih slučajeva nasilja nad ženama – iako je pravi broj verovatno mnogo viši zbog neprijavljenih slučajeva.

Postoji izvesna korelacija između stvarnog sveta i digitalnog prostora, tvrdi Eon, koji ima veze sa ponašanjem i načinom na koji reagujemo.

„Od trenutka kad počnete da prihvatate takvo ponašanje onlajn, ono počne da se prenosi na stvaran život.“

Female robot and human heads side by side

Getty Images
UNESKO kaže da virtuelni svet „odražava pristrasnost i predrasude stvarnog sveta“

UNESKO-ov izveštaj iz 2019. godine kritikovao je kompanije koje prave digitalne asistente, u većini slučajeva sa ženskim glasovima, optuživši ih da učvršćuju rodne stereotipe.

Navodi se da primeri kao što su Eplova Siri ili Amazonova Aleksa deluju „tolerantno i povremeno čak prizivaju muška seksualna udvaranja“.

Dodaje se da su kompanije „propustile da podstaknu ili izgrade model, a kamoli da insistiraju, na zdravoj komunikaciji o seksu ili seksualnim sadržajima.“

Siri i Aleksa su u međuvremenu ažurirane, mada su se globalni tehnološki giganti odlučili za izostanak konfrontacije.

Siri sada reaguje na seksualne komentare prosto govoreći: „Neću odgovoriti na to.“

Pre toga je njen odgovor na seksualnu uvredu bio: „Pocrvenela bih kad bih mogla.“

„Možete li da zamislite koliko bi nadrealan bio jedan takav odgovor u stvarnom životu?“, pita se Eon.

Veštačka inteligencija vaskrsnula glas preminulog pevača
The British Broadcasting Corporation

„Navike moraju da se menjaju“

A woman using virtual recognition AI on mobile phone

Getty Images

Uprkos pokušajima da dođe do poboljšanja, predrasude u veštačkoj inteligenciji opstaju, upozorava Eon.

Dok nam Siri i Aleksa pomažu kod sitnijih kućnih zadataka kao što su puštanje muzike ili uključivanje svetla, sistem veštačke inteligencije brazilskih sudova, koji prosejava hiljade i hiljade sudskih dokumenata, zove se Viktor, ističe on.

Jedno rešenje koje razmatraju neke kompanije jeste upotreba rodno neodređenih glasova u njihovim sistemima.

Ali Petikov kaže da se ženski glasovi koriste u veštačkoj inteligenciji zbog njihove visine i modulacije, čiji je cilj da stvori prijatniju atmosferu za mušterije.

Bradesko, stoga, nema planove da zameni Biu niti da se pretvara da problem ne postoji, objašnjava ona.

„Ali navike moraju da se menjaju. Te interakcije su bukvalno odraz društva.

„Sad kad smo otkrili ovaj problem, posvećeni smo angažovanju protiv njega.“

„Uskoro će vam se obratiti moja mama“

A call centre worker

Getty Images
Zaposleni u kol centrima, ne samo vritualne asistentkinje, takođe su mete uvreda i uznemiravanja

U širem kontekstu, kompanije razmatraju šta da rade kad mušterije zlostavljaju i seksualno uznemiravaju ljudske asistente.

Kampanja kompanije GS Kalteks enerdži iz Južne Koreje dospela je u vesti 2017. godine poto je pomogla da se smanji zlostavljanje radnica u kol centrima.

Pre nego što se njihov poziv prebaci na asistentkinju, mušterije bi čule snimak nekog člana porodice zaposlenih koji ih podseća da je osoba na vezi neko sa pravim životom i osećanjima.

Snimak je uključivao dečaka koji govori: „Moja mama, koju volim najviše na svetu, uskoro će vam pomoći.“

Drugi, sa glasom muškarca, rekao bi: „Moja dobrodušna, marljiva ćerka će vam se uskoro javiti.“

Adqua campaign for GS Caltex

AdQUA interactive

Adkva interaktiv, marketinška agencija koja stoji iza ove kampanje, kaže da su zaposleni u GS Kalteksu prijavili 54 odsto manji nivo stresa, a 25 odsto njih je tvrdilo da se oseća poštovanije.

Juhjun Park, generalni direktor Instituta DQ, koji se bavi digitalnom edukacijom, kaže da je sve veća potreba za svešću u svetu u kom su interakcije sve dehumanizovanije.

„Ljudi moraju da budu civilizovaniji.

„Imamo problem sa uznemiravanjem kad se ne srećemo sa drugima licem u lice.

„Čak i pre veštačke inteligencije, mi kao ljudi se nismo ophodili jedni prema drugima preterano lepo.

„Mi kao društvo, iako razgovaramo sa veštačkom inteligencijom, zajedno gradimo jedan čitav sistem i ako se ne budemo ponašali uljudno, postojaće reperkusije za to.“


Pratite nas na Fejsbuku i Tviteru. Ako imate predlog teme za nas, javite se na bbcnasrpskom@bbc.co.uk

Komentari

Vaša adresa e-pošte neće biti objavljena.

Ovo veb mesto koristi Akismet kako bi smanjilo nepoželjne. Saznajte kako se vaši komentari obrađuju.