top of page
Writer's pictureJevđenije Đokić

’DEEPFAKES’ – LAŽI NA STEROIDIMA

Od lažnih vesti i fotošopa do ’dubokih laži’


Dok istina obuje cipele, laž proputuje pola sveta - Mark Tven


Na katolički Božić 2020. godine, kraljica Elizabeta II se, na britanskom Kanalu 4, obratila građanima Ujedinjenog Kraljevstva sa jednom sasvim netradicionalnom i krajnje bizarnom čestitkom. Prvo se zahvalila na pozivu i mogućnosti da na televiziji konačno kaže sve što je tišti. Govorila je i o nestašici WC-papira u vreme pandemije, a kritikovala je i unuka Harija i snajku Megan zbog toga što više vole da žive sa Kanađanima. Onda je na kraju (iako tada u 94. godini života) živahno počela da đuska kao tiktokerka.




Naravno, to nije bila stvarna kraljica Elizabeta II, već ’duboko lažni’ video napravljen tehnologijama veštačke inteligencije. Možemo samo da pretpostavimo šta bi Mark Tven rekao na sve to da je kojim slučajem danas živ.


Ovakve digitalne obmane predstavljaju najnoviji, ekstremni izazov za suočavanje sa pitanjem šta je danas za nas istina. Ne treba izostaviti ni činjenicu da je ova lažna kraljica u svojoj satiričnoj božićnoj poslanici takođe pozvala građane da ne veruju baš uvek svojim sopstvenim očima i ušima. Tako nam je najdirektnije ukazala da su istina i poverenje postali ključna pitanja savremenog doba. Čemu i kome se danas uopšte može verovati?


U digitalnom svetu važi tzv. Poov zakon, koji tvrdi da će uvek postojati određen broj korisnika na društvenim mrežama koji čak i providne parodije i satire neće shvatiti kao šalu nego će poverovati viđenom sadržaju. Baš kao što ovu kraljičinu lažnu božićnu poruku nije shvatilo oko dve stotine uvređenih Britanaca koji su, nakon svog čaja u pet posle podne, televiziji pisali gnevna pisma.


Sam termin ’doboke laži’, dipfejks (eng. deepfake ili češće u množini deepfakes), je kovanica od pojmova deep learning (’duboko učenje’) i fake (lažno, ono što nije originalno, što nije autentično). ’Duboko učenje’ je grana mašinskog učenja, a ono spada u oblast veštačke inteligencije.


Poznavanje tehnološke pozadine dubokih laži nam pomaže da bolje razumemo poreklo i glavne aktere u ovom informacionom prostoru, kao i da predviđamo buduće tehnološke trendove u ovoj oblasti. Duboke laži su zasnovane na tehnologiji poznatoj pod imenom ’generativne suparničke mreže’ (Generative Adversarial Networks -GANs). Algoritmi GAN sadrže dve odvojene aplikacije veštačke inteligencije, jednu (generator), koja kreira digitalne sadržaje - na primer, fotografije ili video zapise sa licima ljudi - i drugu ’protivničku’ (diskriminator), koja procenjuje uspešnost generisanog - pokušava da prepozna da li su te fotografije ili video zapisi stvarni ili su lažni, tj. radi li se o pravim osobama u njima ili ne. Na iterativan način generator procene iz diskriminatora koristi za poboljšanja. Vremenom, obe postaju sve bolje (’uče’ jedna od druge), tako da prva počinje da stvara sadržaje koji izgledaju tako uverljivo da diskriminator sve teže razlikuje autentične od kompjuterski sintetizovanih.


Manipulisanje informacijama nije neka novost koju nam je donelo moderno doba. Nekada se to radilo pomoću govorničkih veština i pisane reči. Razvojem medija, posebno onih digitalnih, ta praksa je dobila nove, ranije nepoznate, oblike. Ono što sadašnji trend lažnih vesti čini drugačijim jesu digitalne informaciono-komunikacione tehnologije koje su omogućile kreiranje audio i video zapisa u kojima stvarni ljudi govore i rade stvari koje nikada nisu rekli niti uradili, a zatim njihovo izuzetno brzo širenje na globalnom nivou.


Posebno treba imati u vidu koliko se brzo ove tehnologije razvijaju. Poznati režiser Martin Skorseze je 2019. godine objavio svoj film, Irac, u kojem je imao izuzetno skup i zahtevan proces podmlađivanja svojih glavnih glumaca Roberta de Nira, Al Paćina i Džoa Pešija. Skorseze je radio na ovom projektu od 2015. Snimao je specijalnom kamerom sa tri opreme, imao je najbolje umetnike specijalnih efekata, postprodukciju, budžet od više miliona dolara, a efekat na kraju ipak nije bio tako ubedljiv. A onda je vrlo brzo neko na Jutjubu, koristeći takoreći besplatni softver, uradio skoro savršeno podmlađivanje tog istog filma.



Digitalne tehnologije su postale toliko dostupne da veliki broj ljudi, bez ikakvih ekspertskih znanja iz oblasti veštačke inteligencije, može napraviti sadržaje ovog tipa uz pomoć softvera koji je svima dostupan za besplatno preuzimanje. Na Jutjubu postoje veoma detaljna objašnjenja kako se to može uraditi.


Pre dvadesetak godina praktična sposobnost pojedinaca i organizacija da distribuiraju slike, audio i video zapise (bili oni autentični ili ne) bila je ograničena. U većini zemalja, nekoliko medijskih kompanija je plasiralo sadržaje na nacionalnom ili globalnom nivou. Vodeće televizijske i radio mreže, novine, časopisi i izdavači knjiga kontrolisali su širenje informacija. U takvom okruženju relativno mali broj pojedinaca ili preduzeća mogao je da dopre do široke publike. Digitalna informaciona revolucija je poremetila ovaj model distribucije medijskih sadržaja. Danas, bezbroj digitalnih platformi olakšava globalno povezivanje i time demokratizuje pristup komunikacijama do nivoa bez presedana.


Prvi duboko lažni video zapisi pojavili su se na Internetu na mrežnoj platformi Reddit krajem 2017. godine. Korisnik koji je imao korisničko ime ’deepfakes’ napravio je nekoliko vrlo realističnih pornografskih video zapisa poznatih ličnosti sa eksplicitnim seksualnim scenama koje se zapravo nisu dogodile u stvarnom životu. Aplikacija koju su koristili kreatori dubokih laži i koja se delila na Redditu u vrlo kratkom vremenskom periodu preuzeta je više od 100.000 puta.


Široka pristupačnost dubokih laži u digitalnom prostoru izazvala je niz pravnih, društvenih i etičkih pitanja. Da li je potrebna bilo kakva pravosudna intervencija? Da li bi duboke laži trebalo potpuno zabraniti? Ako regulatori treba da se umešaju, koji bi to bio najefikasniji način da se kontrolišu onlajn zajednice u kreiranju dubokih laži? Treba li neke obaveze nametnuti i operaterima digitalnih platformi?


Da bismo bolje razumeli fenomen dubokih laži i njihov uticaj na pojedince i društvo u celini potrebno je napraviti neku njihovu kategorizaciju. Mogu se okvirno razlikovati četiri glavne grupe dubokih laži. Prve dve, osvetnička pornografija i političke duboke laži, mogu se okarakterisati kao ’teški’ slučajevi, dok su druge dve, komercijalne i kreativne duboke laži, u određenoj meri društveno korisne i stoga izazivaju manje zabrinutosti.


Osvetnička pornografija se odnosi na seksualno eksplicitan materijal koji se kreira i široko distribuira kako bi se ponizila, ucenjivala ili nanela neka druga šteta osobi koja je prekinula intimnu vezu. U poslednje vreme, osvetnička pornografija se proširila na pravljenje lažnih pornografskih video zapisa u cilju iznude finansijske nadoknade da se takvi snimci ne bi distribuirali.


Osvetnička pornografija je verovatno najgora varijanta dubokih laži jer stvara izrazito ponižavajuće posledice. Paradoksalno, iako lažna pornografija narušava privatnost i može se smatrati kršenjem javnog morala, veliki deo onlajn zajednice je na to prilično indiferentan.


Duboke laži mogu imati veoma negativne posledice za funkcionisanje demokratskih društava. Duboko lažni novinski izveštaji mogu imati za cilj da naruše reputaciju određenih političara, prikazuju lažne događaje (npr. lažni teroristički napad) ili da utiču na demokratske procese kao što su izborne kampanje ili drugi društveno značajni događaji. Duboke laži mogu biti upotrebljene kao katalizatori za narušavanje poverenja u političke institucije i produbljivanje podela među društvenim grupama. Ako ih koriste neprijateljske vlade, duboke laži mogu čak predstavljati pretnju po nacionalnu bezbednost ili štetiti međunarodnim odnosima. U političkom okruženju post-istine, ovo se pretvara u trend političkog komuniciranja u kojem ključna briga nije ono što je moralno, etičko ili činjenično, već ono što je politički korisno.


Duboke laži, međutim, mogu imati i značajnu pozitivnu upotrebu u komercijalne i društveno korisne svrhe. Na primer, CereProc je korporacija koja koristi tehnologiju dubokih laži da omogući da ponovo ’progovore’ ljudi koji su izgubili moć govora zbog bolesti.


Sa GAN tehnologijom, sintetički video snimci se mogu proizvoditi i do deset puta jeftinije. Najznačajniji primer za tako nešto jeste video Dejvida Bekama snimljen na engleskom jeziku koji je imao za cilj da podigne svest o inicijativi za borbu protiv malarije (Malaria Must Die). Bekamovo lice i glas su onda ’lažirani’ da bi mu se omogućilo da ’govori’ na devet jezika. Ovaj primer stvaranja video zapisa ilustruje da tehnologija dubokih laži ima ogroman potencijal za korisne primene.


U publikaciji koju je 2019. godine objavio Samsungov centar za veštačku inteligenciju iz Moskve, zajedno sa Skolkovo institutom za nauku i tehnologiju, objašnjeno je kako je moguće kreirati dipfejk video uz pomoć samo jedne statične fotografije i to na primeru Mona Lize. Ako smo se uvek pitali šta se krije iza njenog zagonetnog osmeha, možda to sada možemo da naslutimo na osnovu njene mimike i pokreta koje je sintetizovala veštačka inteligencija.



Fascinantni primer je i ’oživljavanje’ Salvadora Dalija za potrebe muzeja na Floridi. Na osnovu istraživanja i analize stvarnih Dalijevih video materijala, i zatim izučavanja njegovih pokreta do najsitnijih detalja, došlo do 125 interaktivnih videa u kojima glavni akter nije neko ko glumi umetnika, već zaista predstava u stilu stvarnog Dalija. On ’komunicira’ sa publikom i na kraju napravi selfi (jer, naravno, podrazumeva se da bi Dali bio oduševljen selfijima).


Onlajn zajednica je proslavila i glumca Nikolasa Kejdža, koji je ni kriv ni dužan, zahvaljujući tehologijama dubokih laži i društvenim mrežama, ‘glumio‘ u mnogim blokbaster filmovima. Tako se na Jutjubu, ali i drugim platformama, mogu naći isečci filmova u kojima Kejdž igra glavnu ulogu u ‘Indijana Džonsu‘, ‘Džemsu Bondu‘, ‘Supermenu‘, ‘Lorensu od Arabije‘ ili ‘Kumu‘. Mnoge od tih scena izgledaju tako neverovatno stvarne, a kreirali su ih pojedinci, bez nekog ekspertskog tehnološkog znanja, iz čiste zabave. U istom duhu, duboke laži bi mogle biti korišćene i kao pogodan medij za parodiranja ili satirično problematizovanje društveno značajnih tema. Na Internetu se mogu naći razne liste najboljih dipfejk video radova koji se veoma uspešno poigravaju sa našom percepcijom stvarnosti.


Prethodni primeri u dobroj meri ilustruju da, kao i sve u životu, tehnologije dubokih laži imaju i svetlu i tamnu stranu. Štete koje mogu nastati kao posledice dubokih laži mogu biti toliko velike da je to neverovatno. Pored nanošenja direktnih psihičkih povreda tehnologija dubokih laži se može koristiti za nanošenje štete žrtvama rušenjem njihovog ugleda u mnogim životnim situacijama. U svim ’takmičarskim’ životnim oblastima - na radnom mestu, u ljubavi, sportu, tržištu i politici - duboke laži pružaju mogućnosti da svako nanese značajne udarce na ugled svojih rivala. Lažni video snimci mogli bi da prikazuju ljude kako uništavaju imovinu u pijanom besu, kradu iz prodavnice, uzvikuju odvratne rasističke parole, koriste droge, ili rade bilo šta antidruštveno ili sramotno. To može dovesti do gubitka romantične prilike, prestanka podrške prijatelja, uskraćivanje napredovanja, otkazivanje poslovnih prilika i tako dalje. U zavisnosti od okolnosti i vremena kruženja falsifikata, posledice bi mogle biti razorne, a razotkrivanje laži obično dolazi prekasno da bi se popravila načinjena šteta.


Duboke laži nisu samo pretnja pojedinačnim osobama ili firmama. One imaju sposobnost da, na različite načine, nanesu štete i društvu u celini. Pretnje koje dolaze od dubokih laži imaju sistemske dimenzije. Šteta se može, između ostalog, proširiti na izobličenje demokratskog razgovora o važnim političkim pitanjima, manipulaciju izborima, eroziju poverenja u značajne javne i privatne institucije, produbljivanje i iskorišćavanje društvenih podela, štete po određene vojne ili obaveštajne operacije ili sposobnosti; pretnje po ekonomiju i štete u međunarodnim odnosima.


Ne postoji čarobni štapić za rešavanje ovih problema, a svakako ne postoji mogućnost zaustavljanja tehnološkog napretka koji je omogućio duboke laži. U idealnom slučaju, ovi tehnologijom izazvani problemi mogli bi se na odgovarajući način rešiti pomoću iste te tehnologije. Međutim, iako već postoje snažni algoritmi za detekciju dipfejk sadržaja (uključujući metode zasnovane na GAN-u), oni zaostaju za inovacijama koje se pojavljaju u kreiranju dubokih laži.


Sa druge strane oni neće imati širok uticaj ako ih glavne platforme za distribuciju sadržaja, uključujući i tradicionalne medije, ne usvoje kao mehanizam za pregled i filtriranje. Isto važi i za potencijalna rešenja koja uključuju digitalno poreklo: video ili audio sadržaj može pri kreiranju biti obeležen ’digitalnim vodenim žigom’, proizvodeći nepromenjive metapodatke koji označavaju lokaciju i vreme i potvrđuju da sadržaj nije menjan.


Potrebno je i da državne institucije intervenišu sa regulatornim zakonima koji jasno propisuje obaveze svih koji koriste takve tehnologije. Ali slično kao i kod većine tehnoloških rešenja, teško da će moći da se izbore za globalni uticaj, posebno u slučaju međunarodnih odnosa. Često je izazovno ili prosto nemoguće identifikovati tvorce štetnih dubokih laži, a oni se mogu nalaziti u inostranstvu i izvan dometa lokalnih zakonskih rešenja. Osim toga ovo bi podrazumevalo državne intervencije u obimu većem od bilo čega što je ranije viđeno u vezi sa regulisanjem u ovoj oblasti.


Trenutno, većina internet platformi za distribuciju digitalnih sadržaja kao što su Jutjub, Fejsbuk ili Tviter, imaju brojne zakonske obaveze da kontrolišu sadržaje koji se na njima plasiraju. Platforme to rade koristeći najnaprednije tehnologije za otkrivanje i uklanjanje nemoralnog, nezakonitog ili zlonamernog sadržaja. Takođe pružaju korisnicima i razne alate za otkrivanje problematičnih sadržaja i obaveštavanje platformi o tome. Tehnološki posmatrano, već se može uočiti da je došlo do ’trke u naoružanju’ u kojoj su tehnologije koje se koriste za generisanje dubokih laži u prednosti u odnosu na tehnologije koje se koriste za njihovo otkrivanje.


Sa stanovišta nas običnih ’žitelja’ ovog informacionog ekosistema, možda je najvažniji faktor podizanje nivoa svesti najšire javnosti o tome da svi imamo obavezu da uložimo vreme i trud za proveravanje izvora informacija i za razotkrivanje lažnih sadržaja. Moramo pažljivo da proveravamo naše omiljene izvore informacija – šta je u njima istinito a šta lažno, bilo da su to novine, televizija, internet portali, društvene mreže ili stvarni ljudi.


Većina ljudi bi se složila da je pristup pouzdanim i tačnim informacijama od ključnog značaja za dobro funkcionisanje svakog društva i da tehnologija dubokih laži to dovodi u opasnost. Ako se sve može lažirati onda se sve može i poreći. Dakle, sama osnova onoga što je stvarnost počinje da se urušava. Naravno, sama realnost po sebi ostaje, samo što naša percepcija stvarnosti počinje da postaje sve nejasnija.


Američki filozof i evolucionista Danijel Denet je tokom nedavnog intervjua rekao da čovečanstvo ulazi u period epistemološkog mraka kakav nismo doživeli još od srednjeg veka. Prema Denetu, prava opasnost pred nama je to što smo izgubili poštovanje prema činjenicama i istini i tako izgubili želju da razumemo svet zasnovan na činjenicama.


Našli smo se ’u sendviču’ između manipulacije i poverenja. Da bismo izašli iz pozicije manipulisanja, moramo se vratiti zdravom razumu – a pre svega našoj sposobnosti razmišljanja. Svako od nas mora postati svestan sopstvene odgovornosti u digitalnom ekosistemu i pridržavati se jednostavnog pravila - ako nisam sasvim siguran da je nešto istina ne smem to dalje deliti po društvenim mrežama. Zapitajmo se kako bi naše današnje društvo izgledalo kada bismo sledili taj savet i kada bismo prestali da tako lakomisleno širimo okolo po društvenim mrežama ono za šta nismo sasvim sigurni da je istinito?


Comments


bottom of page