fbpx
ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹ ANTENA NOVA EPIZODA: Simbol Beograda - Avalski toranj ✹

Oblakoder merch    |    Newsletter    |    Patreon

Deepfake i uticaj AI-a na manipulaciju onlajn sadržajem i kako ga prepoznati?

Od naizgled bezopasne zabave zamene lica, do lažnih videa koji utiču na tok svetskih zbivanja… Ključne informacije o Deepfake tehnologiji pronađite u našem tekstu!

16. October 2023

Tekst nastao u saradnji sa A1 Srbija

Pre samo nekoliko godina teško je bilo zamisliti svet u kojem političari uverljivo izgovaraju reči koje od njih ne očekujemo, slavne ličnosti se pojavljuju u skandalima u kojima nisu učestvovali, i istorijske figure vode razgovore sa našim savremenicima. Veštačka inteligencija je otišla daleko veoma brzo, od DALL-E mini kreatura koje nalikuju dečjim crtežima do Midjourney fotorealističnih radova koji lako replikuju umetnički stil bilo koje epohe. Iako tehnologija i dalje ima svoja ograničenja (tragikomično ne ume da se obračuna sa generisanjem realističnih šaka), postoje i izvesna moralna pitanja kojima bi se trebalo pozabaviti.

Nastanak i uspon Deepfake tehnologije

Da bismo shvatili na koji način deepfake tehnologija utiče na nas i našu svakodnevnicu, najpre je neophodno da napravimo osvrt na njen nastanak i ključne razloge korišćenja i zloupotrebe. Digitalno doba iznova stavlja pred nas pitanje istine i autentičnosti, te smo otišli daleko od vizija pionira interneta, koji su sajber prostor zamišljali kao decentralizovano mesto besplatne razmene znanja i mišljenja.

Međutim, sa velikom dostupnošću informacija, uvek se kao nuspojava pojavljuje i zloupotreba. Termin deepfake je nastao na Reddit platformi, kao naziv podgrupe gde su ljudi razmenjivali videe napravljene uz pomoć softvera koji radi mašinsku zamenu lica. Ova zamena vrši se uz pomoć dva algoritma, jednog koji koristi postojeće slike i videe da „nalepi” željeno lice na subjekta iz glavnog videa; i drugog algoritma koji radi testiranje datog sadržaja da proveri autentičnost zamene. Takav intenzivni proces vrši se nekoliko puta do dolaska zadovoljavajućeg rešenja, a pošto je u pitanju AI tehnologija, sa svakim unosom i prihvatanjem – ili odbijanjem od strane korisnika – softver „uči” kako da postane bolji.

Manipulacija onlajn sadržajem

Već sa samim začećem i usponom ove tehnologije dolazimo i do njenih moralno problematičnih aspekata. Subreddit r/deepfakes je do uspona popularnosti ove tehnologije došao kontroverznim stvaranjem pornografskog sadržaja, koristeći postojeće eksplicitne videe na koji su korisnici nalepili lica poznatih ličnosti. Iako je tehnologija u početku bila prihvaćena i često deljena i na većim sajtovima, njena lascivna zloupotreba dovela je do zabrane kačenja bilo kakvog lažiranog video sadržaja, iz straha odmazde zbog potencijalne povrede autorskih prava. Upravo zbog izuzetno velikog broja javno dostupnog vizuelnog materijala poznatih ličnosti na internetu, deepfake tehnologija je lako mogla da iskoristi ogroman niz fotografija i videa da napravi lice približno izvornom, i ukomponuje ga u drugi video.

Sad smo, doduše, odmakli korak dalje u tome –  novi Majkrosoftov jezički model VALL-E može da imitira vaš glas na osnovu samo tri sekunde zvučnog materijala. Već postoje slučajevi korišćenja ove tehnologije za video-intervjue i prijave za posao, gde se krađom identiteta, na osnovu naličja i portfolija druge osobe, dobija poslovna pozicija. Uticaj AI-ja na manipulaciju onlajn sadržajem ne oslanja se prevashodno na vizuelne formate; on može biti u tekstualnoj formi, u vidu audio zapisa, novinskih članaka, objava na društvenim mrežama itd.

Međutim, činjenica je da ljudi više veruju u autentičnost video-zapisa jer je njime najteže manipulisati, što onda kontra-intuitivno dovodi do toga da bivaju prevareni deepfake videom koji izgleda izuzetno realistično. Skoriji slučaj manipulisanog video-sadržaja poznatog jutjubera Mr. Beast-a, pokazuje na koji način se ovakva tehnologija može zloupotrebiti. Pre svega, odabir njegovog lika je ključan, jer je Mr. Beast čitav svoj sadržaj orijentisao ka donaciji velike količine novca različitim individuama i organizacijama. Samim tim umnogome doprinosi autentičnosti lažnog videa u kojem nam on nudi najnovije telefone, a zauzvrat traži učešće od dva dolara.

Zloupotreba same tehnologije može dovesti do povrede ličnih prava, ali i do značajnih društvenih potresa, što nam svedoči slučaj deepfake-a Ukrajinskog predsednika, Vladimira Zelenskog, koji u fabrikovanom videu traži od građanina ukrajine da se predaju Rusiji. Naravno, ovakvi “potresi” više su kratkotrajni, dok se ne razotkriju, ali služe široj svrsi destabilizacije.

Prepoznavanje Deepfake-a

Iako je u pitanju tehnologija koja vremenom uči i postaje bolja, ipak postoje načini da je prepoznamo i obračunamo se sa lažnim sadržajem:

  1. Verifikacija izvora – Pre svega je potrebno utvrditi svrhu zapisa u kontekstu našeg poznavanja osobe koja se putem tog zapisa obraća.Kod Mr. Beast deepfake videa, uverljivost je veća jer je on kao individua sklon akcijama donacija, ali isto tako – ne dešava se da ikada traži materijalni doprinos od samih fanova i gledalaca.

  2. Neusaglašenosti u zvuku ili slici – algoritmi su dobro izučili facijalne ekspresije i pokrete usana, ali ni oni nisu savršeni: često se zadesi da postoji neujednačen ton boje kože kod lica i vrata, ili ostatka tela. Predeo oko glave često sadrži takozvane artefakte, dosta vizuelnog šuma i neujednačenosti u koloritetu.

  3. Reverse image pretraga – Sadržaj za koji smatramo da je zloupotrebljen i lažan možemo pretražiti putem reverse image tehnologija koje su implementirane i većinu poznatih pretraživača (Google, DuckDuckGo, Yandex). Iako postoje šanse da se lažni sadržaj pojavi i na zvaničnim izvorima, svakako su mnogo manje nego kada se šeruje samo na određenoj lokaciji gde targetuje specifičnu ciljnu grupu.

  4. Kritičko mišljenje – Akademska zajednica smatra da deepfake sadržaj ne može izazvati veću disrupciju u društvu jer je to samo još jedna od alatki dezinformacija, pored mnogobrojnih drugih, koje duže vreme teže ka istoj svrsi. Samim tim, kritičko mišljenje je možda najvažnija alatka u suočavanju sa lažnim sadržajem, jer nam omogućava da dođemo do zaključka bez spoljašnjih pomagala. Ali ono je alatka koja se gradi vremenom, vežbom i sticanjem znanja, kojim se borimo protiv dezinformacija u svetu koji obiluje mnoštvom istih.

  5. Zvanične alatke za detekciju Deepfake sadržaja – Razne kompanije u industriji tehnologija razvijaju alatke pomoću kojih se može veoma brzo doći do zaključka da li je ponuđeni sadržaj lažiran, ili ne. Svakako, ovo je možda najbrža metoda, ali isto tako zahteva od korisnika da plati za program, jednokratno ili uz mesečnu pretplatu.

Ima li deepfake pozitivne strane?

Iako smo naveliko govorili o zloslutnim implikacijama deepfake-a, ipak postoji i dosta slučajeva korišćenja AI tehnologija u kreativne svrhe: tim koji stoji iza serije South park otvorio je studio specijalizovan za rad na sadržaju koji uključuje deepfake. U kolaboraciji sa Kendrikom Lamarom, napravili su sjajan video za njegovu pesmu „The Heart Part 5” koja prikazuje Kendrika u raznim obličjima, od Kanjea Vesta do OJ Simpsona, uklapajući vizuelni prikaz sa višeslojnim stihovima.

Industrija zabave prihvatila je ovu tehnologiju i koristi je u različite svrhe, od „skidanja” godina glumcima, do sinhronizacije za različite jezike. I ovde se mogu postaviti etička pitanja o korišćenju naličja preminulih glumaca, no pretpostavljamo da će ovo u skorijoj budućnosti podrazumevati ugovore gde sami glumci prodaju svoje naličje za buduća korišćenja, ako to sami žele.

Takođe, u medicini se deepfake tehnologija može iskoristiti u dobre svrhe – algoritmi koji detektuju razlike između ponuđenih fotografija mogu da nauče da detektuju i tumore na osnovu ponuđenog materijala. Pošto su na širem planu tumori ipak dovoljno retki da se može odraditi detaljnije istraživanje, na osnovu ponuđenog materijala, AI tehnologija može da pripomogne u nedostatku šire selekcije.

Kada govorimo o opasnostima tehnologije, potrebno je shvatiti da veoma često one nisu inherentno opasne. Ali, sa uplivom ljudskog faktora, mogu negativno uticati na pojedince i šire mase, dakle – pitanje namere je ovde ključno, kao i sa svim alatkama koje imaju potencijal zloupotrebe. Isto tako, na osnovu ponuđenih primera, može se doći do zaključka da postoji i dobra strana ovih tehnologija, gde njihova primena može pomoći pojedincu, i zajednici – ali treba biti uvek svestan i mogućnosti zloupotreba.

Ako želite da se dodatno edukujete o digitalnom svetu, sve češćim internet prevarama i sajber napadima, kao i da naučite kako da ih prepoznate i odbranite se od njih, posetite Kutak za bezbedan net.

Takođe, posetite A1 Srbija TikTok gde možete pogledati videe generisane uz pomoć veštačke inteligencije i upoznajte Vanju, AI karaktera koji je inspirisan stvarnim pretnjama koje vrebaju na internetu.

Ilustracije: Olga Đelošević

Preporučeni tekstovi

Pratite nas na:

0 Comments

Submit a Comment

Vaša email adresa neće biti objavljena. Obavezna polja su označena sa *