Infokalipsa

Predstoji li nam apokalipsa informacija?

Budućnost će donijeti jednostavnu i neprimijetnu tehnologiju za manipulisanje percepcije i lažiranje stvarnosti.

Sredinom 2016. godine Aviv Ovadya je shvatio da je nešto veoma pogrešno sa internetom— toliko pogrešno da je ostavio svoj posao i oglasio uzbunu. Nekoliko sedmica prije predsjedničkih izbora u Americi 2016. godine, izrazio je svoju zabrinutost tehnolozima u San Francisku i upozorio na dolazeću krizu dezinformacija u prezentaciji naslovljenoj “Infocalypse”, piše BuzzFeed News.

Informacioni ekosistem koji se razvio na Internetu je veoma nezdrav, tvrdi Ovadya u svojoj prezentaciji. Najveće platforme na Internetu su tako programirane da nagrađuju informacije koje često zavaravaju ljude ili produbljuju društvene podjele, ili i jedno i drugo. Platforme kao što su Facebook, Twitter, i Google prednost daju klikovima, dijeljenjima, reklamama i novcu nad kvalitetom informacija, i Ovadya se nije mogao osloboditi osjećaja da sve to vodi ka nečemu lošem — nekoj vrsti kritičnog praga zaraznih i toksičnih dezinformacija. Njegovu prezentaciju su tada najvećim dijelom ignorisali.

Ovadya je mjesecima prije svih drugih vidio da su naše platforme i algoritmički optimizovan svijet ranjivi na propagandu i dezinformacije, do te mjere da to podriva temelje našeg ljudskog diskursa: kredibilitet činjenica.

Ali ono što će nas istinski uplašiti jeste ono što Ovadya dalje predviđa.

Budućnost će donijeti jednostavnu i neprimijetnu tehnologiju za manipulisanje percepcije i lažiranje stvarnosti.

Zbog toga je Ovadya, koji je diplomirao na MIT-u i radio kao inženjer za tehnološke kompanije kao što je Quora, ostavio sve početkom 2016. godine da bi pokušao spriječiti ono što je vidio kao krizu informacija.

Danas Ovadya i grupica istraživača i akademskih radnika zabrinuto gledaju u budućnost, koja je alarmantno distopijska. Oni prave scenarije na osnovu tehnologija koje su počele da se pojavljuju i rezultati su obeshrabrujući.

Za Ovadya — koji je sada glavni tehnolog u Centru za odgovornost društvenih medija na Univerzitetu u Mičigenu i stipendista programa inovacija Knight News u Centru za digitalnu žurnalistiku na Kolumbiji — šok i zabrinutost zbog ruskih reklama na Facebooku i botova na Twitteru blijedi u poređenju sa većom prijetnjom: Tehnologije koje se mogu upotrijebiti da prošire i iskrive stvarnost razvijaju se brže od naše sposobnosti da ih razumijemo, kontrolišemo ili ublažimo. Moguće posljedice su katastrofalnije od uplitanja stranih država u izbore — podrivanje ili rušenje osnovnih institucija civilizacije, “infokalipsa”.

Situacija je sve gora zbog toga što smo sve vještiji u korištenju kompjutera; gora zbog stalnog napretka umjetne inteligencije i mašinskog učenja koje može brisati granice između činjenica i fikcije; gore zbog toga što bi nas te stvari mogle odvesti u budućnost gdje bi svako mogao pokazati da se nešto dogodilo, bez obzira da li zaista jeste.

Ovadya upozorava da bi brzorazvijajuća umjetna inteligencija, mašinsko učenje i proširena stvarnost mogli biti zloupotrebljeni kako bi se vodio informativni rat.

I bliže smo nego što mislimo potencijalnoj infokalipsi. Već dostupni alati za audio i video manipulaciju počeli su da izgledaju kao potencijalne lažne vijesti. U mračnim kutovima interneta, ljudi su počeli koristiti algoritme mašinskog učenja i open-source programe da jednostavno naprave pornografske video snimke koji realistično montiraju lica slavnih ličnosti ili bilo koga drugog na tijelo glumaca. U institucijama kao što je Stanford, tehnolozi su napravili programe pomoću kojih se može manipulisati video snimcima tako što se u realnom vremenu mogu pronaći lica ljudi i montirati u videu. Slično, na Univerzitetu u Vašingtonu kompjuterski stručnjaci napravili su program koji može pretvoriti audio snimke u realističan video osobe koja izgovara te riječi.

Kako ovi alati budu dostupni za široku upotrebu, Ovadya upozorava da bi najgori scenario mogao biti izuzetno destabilizujući.

Postoji diplomatska manipulacija, u kojoj maliciozni akteri koriste naprednu tehnologiju da stvore uvjerenje da se događaj desio i da tako utiču na geopolitiku. Zamislite, na primjer, algoritam mašinskog učenja (koji analizira gomilu podataka kako bi sebe naučio da izvrši određenu funkciju) u koji je pohranjeno na stotine sati snimaka Donalda Trumpa ili sjevernokorejskog diktatora Kim Jong Una, i koji onda može izbaciti gotovo savršene i gotovo nerazlučive od stvarnosti – audio ili video snimke ovih lidera kako proglašavaju nuklearni ili biološki rat. “To ne mora biti savršeno – samo dovoljno dobro da bi navelo neprijatelja da pomisli da se nešto desilo i da isprovocira refleksnu reakciju kao odmazdu.”

Drugi scenario je zloupotreba političkih botova koji manipulišu politikom lažnim građanskim inicijativama. U njegovim predviđanjima, sve uvjerljiviji botovi koje pokreće umjetna inteligencija biće sposobni da se ravnopravno takmiče sa pravim ljudima za pažnju zakonodavaca jer će biti suviše teško uočiti razliku. Uskoro će možda biti moguće direktno  zatrpati ekrane u Kongresu srceparajućim, uvjerljivim algoritmički proizvedenim molbama građana. Slično tome, senatora bi mogli biti bombardovani elektronskim porukama od građana koje je sastavio mašinski program koji radi tako što spaja dijelove sadržaja preuzetih sa društvenih mreža.

Zatim postoji taktika o kojoj, kaže Ovadya, stručnjaci za bezbjednosti već šapuću. Umjetna inteligencija se koristi da skenira stvari kao što je naše prisustvo na društvenim mrežama i da napravi lažne ali uvjerljive poruke od ljudi koje znamo. Prema mišljenju Ovadya, to omogućava zlonamjernima da odaberu bilo koga i da naprave uvjerljivu imitaciju te osobe koristeći podatke dostupne javnosti.

 “Prije je bilo potrebno da čovjek oponaša nečiji glas ili da napravite autentičan lažni razgovor – u ovoj verziji možete samo pritisnuti dugme koristeći javno dostupan softver,” kaže Ovadya. “To je novina – kada svako to može raditi jer je trivijalno. Onda je to potpuno druga priča.”

Zamislite, kaže Ovadya za BuzzFeed, poruke koje pokušavaju da izvuku povjerljive informacije kao što su šifre, brojevi kreditnih kartica i slično, pretvarajući se da stižu od provjerenog izvora. “Ne samo neki email, već email od prijatelja kojeg ste već neko vrijeme nestrpljivo očekivali da se javi,” kaže on. “I zbog toga što bi bilo lako napraviti stvari koje su lažne, bili biste preplavljeni takvim porukama. Ako bi svaki spam koji primate izgledao identično mailovima od stvarnih ljudi koje poznajete, a svako od njih pokušava da vas ubijedi u nešto, vi biste na kraju rekli, u redu, ignorisaću svoju inbox.’”

To može dovesti do apatije: zatrpani lavinom konstantnih dezinformacija, ljudi će jednostavno početi da odustaju. Ljudi će prestati obraćati pažnju na vijesti i taj temeljni nivo informisanosti potreban za funkcionalnu demokratiju postaće nestabilan.

Pored toga, postoje i drugi zastrašujući scenariji koje Ovadya opisuje, kao što je crno tržište društvenih medija sa ljudima umjesto botova. “To je buduće međunarodno tržište za naivne ljude,” kaže on.

Njegova predviđanja su naročito zastrašujuća imajući u vidu lakoću sa kojom su demokratska društva već izmanipulisana najrudimentarnijim tehnikama dezinformisanja. Prevare, obmane i zbunjivanje koje slijede nisu ništa novo; samo će to biti sofisticiranije, teže za uočiti i djelovaće zajedno sa drugim tehnološkim silama koje ne samo da nisu poznate, već su teške za predvidjeti, tvrdi Ovadya u intervjuu za BuzzFeed.

Za one koji obraćaju pažnju na razvoj umjetne inteligencije o mašinskog učenja, ništa od ovog se ne čini kao nešto posebno. Softver koji trenutno razvija proizvođač čipova Nvidia već može napraviti ubjedljve hiperrealistične slike predmeta, ljudi i čak neke pejzaže na osnovu desetina hiljada slika. Adobe trenutno pilotira dva projekta Voco i Cloak — prvi je “photoshop za audio”, a drugi je alat koji može neprimijetno ukloniti predmete i ljude iz videa u samo nekoliko poteza.

Erozija autentičnosti i integriteta zvaničnih izjava je najopasnija i najalarmantnija od ovih budućih prijetnji. “Bilo da je umjetna inteligencija, naročito manipulativni hakovi ili lažni politički aktivizam – ove tehnologije vode ka sve većoj eroziji povjerenja,” kazao je istraživač kompjuterizovane propagande Renee DiResta. “To omogućava bacanje sumnje u vezi sa tim da li su video snimci ili zagovaračke kampanje stvarni.” Ne morate lažirati video da biste imali ozbiljan uticaj. Samo ukažete na činjenicu da postoji tehnologija koja to omogućava i možete osporiti integritet nečega što je stvarno.

 "Ja pripadam slobodnoj i open source kulturi — cilj nije da se zaustavi tehnologija već da se osigura da smo u ekvilibriju koji je pozitivan za ljude. Tako da ja ne upozoravam samo da će se “to desiti”, već govorim “ozbiljno razmotrite I preispitajte posljedice," kazao je Ovadya za BuzzFeed News.

Ovadya je ipak optimista. Više je interesovanja za kompjutersku propagandu nego ikada ranije i oni koji su ranije oklijevali da shvate ozbiljno ove prijetnje sada su mnogo otvoreniji za upozorenja. Takođe, postoje i moguća rješenja, kao što je kriptografska verifikacija slika i audio snimaka, koja bi mogla pomoći u razlikovanju stvarnosti od manipulacije.

Ovadya i drugi upozoravaju da će narednih nekoliko godina biti teško jer Internet platformama još uvijek upravljaju pogrešni, senzacionalistički motivi, gdje su clickbait i sadržaji lošijeg kvaliteta nagrađeni većom pažnjom. "To je tvrd orah za slomiti, a kada to još spojite sa sistemom kao što je Facebook, koji ubrzava sadržaj, to postaje veoma opasno."

0 0