INTERNET<>
052019<><>

Algoritamska manipulacija videom

Dubinski lažno

Kako sofisticirane metode manipulacije video-sadržajem prete da načine prevaziđenim koncept verovanja sopstvenim očima

Videti sopstvenim očima je u gotovo svim svetskim kulturama apsolutni etalon i najviši mogući nivo spoznaje, a verovanje svom čulu vida je i u našoj kulturi dignuto na pijedestal brojnim opaskama i izrekama. Očevici su kroz istoriju bili najcenjeniji svedoci čiji je iskaz bilo jako teško pobiti. Međutim, kako su neurologija i psihologija napredovale, manjak verodostojnosti sopstvenih očiju je polako dolazio u prvi plan, sklanjajući vekovne slojeve heuristike koja svedoči u prilog kuglica ispod čela. Fotografija se međutim pokazala dostojnom zamenom, nema nepouzdanih puteva moždanih, već tehnika sve vidi samo i isključivo po zakonima optike. Što kamera snimi, to objektivno i jeste. Ni hladnoratovske igre CIA i KGB uposlenika ni silaz tehnike manipulacije fotografijama u mase, koji se poklopio sa širenjem ličnih računara, nije uzdrmao neprikosnoveni status fotografije u društvenoj svesti. Ne stavljaju džabe tabloidi „FOTO” i „VIDEO” svuda gde mogu, znaju da ljudi ne veruju njihovim naklapanjima, ali će poverovati snimljenom materijalu. Tehnologija srlja napred i razvoj događaja ukazuje da koliko god stručan, obučen ili superšpijun neko bio, na polju repetitivnih, zamornih zadataka, pogotovo ako oni zahtevaju neverovatnu posvećenost detaljima i mogu se brojčano izraziti, veštačka inteligencija će prevazići ljudskog delatnika. To je brutalno demonstrirala pojava DeepFake tehnologije za algoritamsku manipulaciju video-sadržajem. Mali korak za osobe opsednute pojedinim javnim ličnostima, a veliki za urušavanje kredibiliteta video-materijala koji će koncept „verovanja sopstvenim očima” učiniti izlišnijim od VHS kaseta.

There is app for that

DeepFake je kovanica nastala kombinacijom deep learninga (duboko učenje, tehnika veštačke inteligencije) i fake (lažno). DeepFake generacija videa se bazira na prekrivanju originalnih elemenata snimka drugim putem tehnike mašinskog učenja koja se naziva generative adversarial network (GAN – grubo prevedeno kao stvaralačka suprotstavljena mreža). GAN je tehnika beznadzornog mašinskog učenja. „Stvaralačka” znači da veštačka inteligencija nešto kreira, a ne, recimo, uočava, sortira ili procenjuje, dok se suprotstavljena odnosi na negativan input tvorca koji AI „uči” da prevaziđe.

Ako vam sve ovo zvuči kao nuklearna fizika i deluje da je lakše programirati samovozeće automobile, obradovaće vas (ili preplašiti) činjenica da u praksi ne morate poznavati teorije mašinskog učenja da biste manipulisali video-snimcima, pošto su neki dobri ljudi već razvili niz besplatnih i neverovatno dobrih aplikacija prilično intuitivnih za korišćenje. Najpoznatiji primerak je svakako FakeApp, veoma rasprostranjen program baziran na TensorFlow tehnologiji, Googlovom open source frameworku za razvoj neuralnih mreža. Na internetu se može naći još nekoliko sličnih programa koji su uglavnom kopije FakeAppa. FakeApp je svetlo dana ugledao još početkom prethodne godine, a od tada je doživeo više verzija. Tvorci aplikacije su pomno slušali savete i predloge korisnika i konstantno radili na usavršavanju sistema mašinskog učenja koji stoji iza njihovog programa, te je FakeApp danas daleko sofisticiraniji alat nego što je bio. Brojni data setovi sa licima poznatih su već okačeni na internet te se korisnik ne mora mučiti sa podučavanjem algoritma, već može krenuti u akciju. Snimci koje FakeApp proizvodi uz odgovarajući pristup i količinu podataka veoma lako mogu prevariti i trenirano oko, pošto algoritam odlično radi posao transplantacije recimo lica na izvorni snimak.

Korisnici su odmah krenuli da upošljavaju aplikaciju na sve moguće načine, manipulišući lica poznatih. Lice miljenika meme zajednice Nikolasa Kejdža se uskoro našlo na svemu i svačemu, od filmskih inserata, gde je stavljeno umesto lica nekog drugog glumca, ili još češće glumice, do govora američkog predsednika Donalda Trampa. Donald je takođe popularna figura u zajednici FakeApp korisnika, pa su njegovo lice stavili recimo kancelarki Angeli Merkel u snimku sa njenim govorom. Granica dobrog ukusa je definitivno pređena u slučaju argentinskog predsednika Makrija, kome je na jednom popularnom snimku lice zamenjeno Hitlerovim. Iako ne znamo ni za jedan bitniji incident te vrste, realno je očekivati da će politička upotreba deepfake video-montaže izaći iz okvira šale, sprdnje i izrugivanja i preći u direktno smeštanje, laganje i manipulaciju, te da će algoritamski lažirani snimci političara u kompromitujućim situacijama biti maliciozno poturani kao pravi u surovoj i nemoralnoj političkoj borbi koja se danas odvija u većini demokratskih država.

Duboko grlo

Kada smo već kod amoralnih zanimanja i kompromitujućih situacija, nikog ko je posetio internet makar jednom neće začuditi činjenica da se FakeApp i slične aplikacije ubedljivo najčešće upotrebljavaju u pornografske svrhe. Lica poznatih glumica, pevačica i sličnih idolki mladih se „prelepljuju” preko lica akterki u pornografskim video-snimcima, a zbog preciznosti koju algoritam može da postigne, korisnici komentarišu da porno snimci nastali na ovakav način izgledaju veoma realistično. Jedna od najčešćih žrtvi ove prakse, američka glumica Skarlet Johanson, u par intervjua prošle godine je iskazala svoju frustriranost ovim internet fenomenom. Brojne poznate ličnosti su rekle da se osećaju povređeno i ranjivo zbog proliferacije deepfake videa sa njihovim likom, posebno nakon skandala sa krađom intimnih fotografija velikog broja svetskih zvezda. Celebrity pornografija je možda još i benignija strana ove priče, kao što je i Skarlet Johanson upozorila, obične žene mogu snositi daleko veće posledice, da ne govorimo o nepostojanju psiholoških odbrambenih mehanizama od ovog vida publiciteta koji, nažalost, poznate žene vremenom razviju. Običnom čoveku ili pre ženi, pošto su one u većini slučajeva žrtve revenge pornografije, deepfake pornografski video može zagorčati život daleko više nego poznatoj glumici. Poznati su slučajevi učiteljica i vaspitačica u Sjedinjenim Američkim Državama koje su dobile otkaz zbog toga što je bivši partner maliciozno okačio na internet intimni video, a deepfake tehnologija čini da takav scenario može da se desi čak i ako niste snimili pornografski video. Kretena je internet pun, te svako na koga u nekom online okruženju niste ostavili najbolji utisak može relativno lako uz pomoć ogromne arhive slika, koju gotovo svako nonšalantno deli sa celim netom, namontirati pornografski video sa vama u glavnoj ulozi. Zaista jezivo i zastrašujuće, posebno u sredini kakva je naša, gde su ljudi slabije tehnološki pismeni, pa dok objasnite da je u pitanju sofisticirana montaža kakva je do nedavno bila neizvodljiva van Lenglija, ode vaš ugled i obraz. Još strašnije je da su šanse veoma male da ćete uopšte primetiti video i da će vam neko ukazati da on postoji, guglanje sebe može detektovati problem, ali koje su šanse da će nastojnici nekog mutnog ukrajniskog porno sajta punog malvera i svakakvih degutantnih snimaka poslušati vaše vapaje i video ukloniti. Google vam može pomoći brisanjem iz pretrage, ali je i efikasnost toga sumnjiva pošto su tvorci diskutabilnih sajtova veoma vešti u varanju algoritama ovog giganta pretrage. Čak i najveći legitimni porno sajt Pornhub, koji je najavio da neće dozvoliti deepfake pornografske snimke, još nije preuzeo konkretne korake po tom pitanju jer se na tom sajtu i dalje nalazi obilje deepfake videa.

Izvan razumne sumnje

Ako vam ovakvi, da kažemo ofanzivni, načini upotrebe sofisticirano manipulisanog videa izazivaju zabrinutost, treba napomenuti da je odbrambena upotreba koncepta deepfake video manipulacije koja se teško može detektovati još korozivnija i destruktivnija po trenutni način opažanja i rasuđivanja koji je duboko integrisan u sve društvene sfere. Pitanje je vremena pre nego što neki, recimo, političar, kog kamera uhvati u inkriminišućem ponašanju, krene da tvrdi da je sve to u stvari izmontirano. U polarizovanoj političkoj klimi kakva danas vlada gotovo svuda, mišljenja će se odmah podeliti po političkoj pripadnosti. Pristalice uhvaćenog političara će imati dovoljno dobro opravdanje za nastavak podrške bez obzira na okolnosti. U odmakloj fazi ere postistine proliferacija deepfake video manipulacija će dovesti do toga da ljudi neće imati poverenja u bilo kakav fotografski ili video-materijal, pored već prisutne skepse po pitanju izjava i tvrdnji svih vrsta od bilo koga. Gubitak stepena poverenja u društvu, poverenja u institucije i socijalne kohezije će biti nenadoknadiv, što preti da dalje ekstremizuje političku klimu širom sveta.

Otišli bismo korak dalje i naveli da će pored vazda prevrtljivog i nestalnog suda javnog mnjenja i pravi sud imati problema sa širenjem deepfake videa. Iako dobro urađeni deepfake snimci izgledaju realistično i bez problema mogu prevariti uobičajenog posmatrača, ne sumnjamo da stručnjaci za video-tehnologiju i sudski veštaci mogu da uoče sitnice koje odaju lažnost. Ipak, sve što smo mi videli je amaterski produkt šaljivdžija ili napaljenih klinaca, rađen pomoću FakeAppa na personalnim računarima. Nema sumnje da već sad postoje daleko sofisticiraniji algoritmi koji bi uz pomoć vrhunskih stručnjaka i moćnih superkompjutera (kakvi se nalaze recimo u Lengliju) mogli da kreiraju video koji bi zabezeknuo i dugogodišnje forenzičare koji se bave video-tehnologijom. Ako to stvara probleme u detekciji lažnih videa, i ne samo tu, kako u takvim uslovima dokazati da je bilo koji video pravi. Samo znanje o postojanju ovakve tehnologije ukomponovano sa čvrstim poricanjem osumnjičenog je ozbiljna prepreka dokazivanju krivice očigledne na nekom snimku izvan razumne sumnje. Ovo će predstavljati poseban problem u državama anglosaksonskog porotnog pravnog sistema, naročito kada su zaprećene oštre kazne poput smrtne za neko krivično delo. Detaljnije prognoze je nezahvalno sada iznositi, ali smo prilično uvereni da širenje tehnologije algoritamske video-manipulacije može imati izrazito negativne posledice po status video-dokaza u pravnim sistemima širom sveta, što svakako zabrinjava, imajući u vidu važno mesto koje video-dokazi trenutno zauzimaju i poverenje koje uživaju posebno u kriminalnim slučajevima.

Veliki brat gleda... i montira

Jasno dokazivanje istinitosti, integriteta i nemontiranosti video-snimka pred antagonističnim arbitrima svakako će biti problematično u još jednoj važnoj društvenoj sferi osim sudova. Internet megakorporacije – naravno da niste očekivali da će proći bez njih – i njihovi cenzorski kapaciteti polako dobijaju vetar u leđa širenjem deepfake videa. Klasičnom metodom noge u vratima i korišćenjem poluge-izgovora (suzbijanje online maltretiranja putem deepfake videa) internet megakorporacije predvođene Facebookom i Alphabetom (YouTube u ovom slučaju) uvode u svoje moderacijske/cenzorske napore i koncept fact checkinga video-sadržaja i fotografija. Facebook je najavio da će proaktivno moderisati video-sadržaj, to jest neće čekati prijave, već će mašinski brisati video-sadržaj koji se kosi sa novom politikom čim se okači. Da li će ovaj pristup funkcionisati, možemo odmah odrično odgovoriti, s obzirom na to da je lik uspeo da ubije 50 ljudi i stigne da bude procesuiran pre nego što je Facebook uklonio snimak njegovog Live feeda. Međutim, to što neki mehanizam moderacije ne funkcioniše iole zadovoljavajuće ne brine čelnike Facebooka, njima je bitno da imaju tehnologiju i opravdanje da brišu ono što ne odgovara njihovim interesima. Pošto žalbe na moderaciju na Facebooku i YouTubu takođe ne funkcionišu dobro po korisnike, možemo samo zamisliti šta je potrebno da se desi da vam moderatori ovih servisa vrate video koji je procenjen kao montirana propaganda. Zaboravite forenzičare i stručnjake, moderatori su ti koji će određivati šta je lažno a šta nije i na osnovu svega što smo do sad videli možemo pretpostaviti da se neće voditi tehničkim znanjem već ideološkim pobudama.

Diskvalifikacija nekog snimka ili fotografije kao lažnog, što je procena koja je izašla iz okvira ekspertize običnog korisnika, pa čak i prosečnog moderatora ili policajca zaduženog za to, vodiće masovnoj cenzuri i zataškavanju za moćnike neugodnih video-snimaka, a niko neće moći da se žali ili dokaže suprotno zbog potrebe za veoma naprednim tehničkim znanjem koje retko ko poseduje. Evropske države i institucije već uveliko donose zakone za suzbijanje deepfake i sličnih sofisticirano manipulisanih videa koji će pre ili kasnije biti perfidno korišćeni protiv grupa svih ideoloških boja koje ne dele svetonazore profesionalnih administrativnih i obaveštajnih struktura. Duboka država, ne u konspirativnom značenju već u realnom prisustvu inertne korumpirane birokratije koja subvertira volju glasača i planove njihovih predstavnika, jača poslednjih decenija u svim demokratskim državama. Oni će koristiti pojavu deepfake tehnologije kako u defanzivnom, da bi izbegli polaganje računa građanima (setite se snimaka telefonom policijskog nasilja u SAD), tako i u ofanzivnom, aktivnom manipulacijom video-sadržaja, kako bi zadržali i uvećali sopstveni uticaj radi sitnih privilegija i ideoloških stavova.

Deepfake i slične AI manipulacije videom spadaju u kategoriju tehnologija koje se zbog lakoće razvoja i upotrebne vrednosti ne mogu efikasno zabraniti ili zaustaviti. Tehnologija će napredovati, lažni video-snimci će biti sve stvarniji i, osim sveobuhvatne prismotre i kontrole izražavanja na internetu, koju ipak ne bismo preporučili, ne postoji nijedan način da se ona iole efektivno suzbije. Jedino realistično rešenje za ublažavanje pobrojanih negativnih efekata na društvo je da se radi na povratku međusobnog poverenja i društvene kohezije, što se ne može postići putem projekata korporativnih i birokratskih struktura, već jedino drastičnom redukcijom moći i uticaja tih struktura. Do tad – ne verujte svemu (bilo čemu?) što vidite na internetu.

Srđan BRDAR

 
Kako preživeti eServise u privredi
.rs
Zakonodavstvo i bezbednost
Algoritamska manipulacija videom
Šta mislite o ovom tekstu?
WWW vodič
Home / Novi brojArhiva • Opšte temeInternetTest driveTest runPD kutakCeDetekaWWW vodič • Svet igara
Svet kompjutera Copyright © 1984-2018. Politika a.d. • RedakcijaKontaktSaradnjaOglasiPretplata • Help • English
SKWeb 3.22
Opšte teme
Internet
Test Drive
Test Run
PD kutak
CeDeteka
WWW vodič
Svet igara



Naslovna stranaPrethodni brojeviOpšte informacijeKontaktOglašavanjePomoćInfo in English

Svet kompjutera