Šodienas redaktors:
Pauls Jānis Siksnis

Netici visam, ko redzi. Kas ir biedējošā "deepfake" tehnoloģija?

Programma, kurā ar "deepfake" tehnoloģijas palīdzību tiek izveidots viltus video ar bijušā ASV prezidenta Baraka Obamas seju Foto: AP/Scanpix
Lūdzu, ņemiet vērā, ka raksts ir vairāk nekā piecus gadus vecs un ir pārvietots uz mūsu arhīvu. Mēs neatjauninām arhīvu saturu, tāpēc var būt nepieciešams meklēt jaunākus avotus.

Lai arī 21. gadsimtā mūsu ikdienas dzīvi krietni atvieglo dažādi tehnoloģiskie sasniegumi un inovācijas, šķiet, ka uztvert pasauli ir tik sarežģīti, kā nekad - informācijas telpa ir neticami plaša un kļūst aizvien grūtāk atšķirt patiesu informāciju no maldiem. Nu šim kopējam apjukumam pievienojusies tehnoloģija, kas varētu līdz saknēm satricināt to, kam esam ticējuši līdz šim un burtiski likt vairs neticēt pašiem savām acīm.

Kas ir "deepfake"?

Vārds "deepfake" (no angļu val. - dziļi viltots) ir saliktenis - "deep" nāk no "deep learning" - mākslīgā intelekta mašīnmācīšanās veida, un vārda "fake" - viltots. Tā ir tehnoloģija, ar kuras palīdzību iespējams manipulēt video, dažas tā daļas reālistiski aizvietojot ar citām.

Savā vienkāršākajā un nekaitīgākajā formā, par "deepfake" sauc zemas kvalitātes video, kurā kādam populāram seriālu vai filmu varonim ir uzlikta cita cilvēka seja, šādi radot komisku iespaidu. Lai gan šī ideja nav nekas jauns, ar mūsdienu tehnoloģiju piedāvātajām iespējām ikviens var izveidot pats savu "viltus video" - šim nolūkam var izmantot visparastāko mājas datoru vai pat mobilo tālruni.

Video: Salīdzinājums starp parodiju un "deepfake" versiju

Viens no populārākajiem "deepfake" video varoņiem ir ASV prezidents Donalds Tramps - tas daļēji skaidrojams ar to, ka Internetā ir pieejams milzu lērums fotogrāfiju un video materālu no ASV vadītāja runām un intervijām. Ikviens, kuram ir pieeja attiecīgajai programmatūrai, var radīt reālistisku video, kurā viens no ietekmīgākajiem pasaules cilvēkiem saka vai dara burtiski jebko.

Pavisam nesen plašāku interneta lietotāju uzmanību pievērsa sociālajā tīklā "Instagram" izplatīts video, kurā "Facebook" dibinātājs Marks Zakerbergs lielās ar savu varu, ko viņam dod pieeja miljardiem lietotāju datiem. Taču arī šis video ir "deepfake".

Video: Reālistisks Marka Zakerberga "deepfake"

"Brīdi iztēlojieties - viens cilvēks, kurš pilnībā kontrolē miljardiem cilvēku zagtos datus: visus viņu noslēpumus, viņu dzīvi, viņu nākotni," simulētajā video saka Zakerberga digitālais atveids.

Kas īsti ir "deepfake" un kādus draudus tas rada?

Dators iemācās cilvēka seju

Jauno mediju mākslinieks Kristaps Biters sarunā ar "Apollo" atklāj, ka "deepfake" video veidošanai "izmanto datorprogrammas, kurām parāda divas sejas - oriģinālo, kurai grib nomainīt vaibstus un seju, kuru lietotājs vēlas uzlikt uz oriģinālās. Programmā "iebaro" no pāris simtiem līdz pāris tūkstošiem bilžu, tad tās algoritms atpazīst katras sejas unikālo struktūru un izveido reālistisku un kustīgu masku".

Raksta foto
Foto: Unsplash

Lai arī ļoti ticama rezultāta sasniegšanai nepieciešams jaudīgs dators un liels daudzums datu - bildēm, video, balss ierakstiem - diezgan reālistisku sniegumu iespējams iegūt pat ar telefona aplikācijas palīdzību - šajā gadījumā "deepfake" darbojas līdzīgi plašu popularitāti ieguvušajiem "Snapchat" un "Instagram" filtriem. 

» Cik daudz uzticēties tīmeklī lasītajam? Sieviete ASV ārstē dēlu autismu ar balinātāju

Nav grūti iztēloties, kādas iespējas ar šādas tehnoloģijas palīdzību paveras mūsdienās, kad savu bilžu publiska izrādīšana Interneta vidē ir kļuvusi par teju vai neatņemamu globālā tīmekļa lietotāja ikdienas sastāvdaļu. Līdzīgi ar politiķiem - mediju plašais jebkuras situācijas atspoguļojums nodrošina, ka viegli iespējams atrast dažādu ierēdņu un slavenību sejas bildes no visiem iespējamajiem rakursiem.

Drauda daudzās sejas

"Lielākais drauds, manuprāt, ir iespējamā politiskā dezinformācija," saka Biters. "Tas īpaši varētu ietekmēt vecāko paaudzi, kuri tik aktīvi neseko līdzi visiem jaunumiem tehnoloģiju jomā."

Video: Režisora Džordana Pīla veidotais "deepfake" bijušajam ASV prezidentam Barakam Obamam

» Nepatiesas informācijas slazdos: Kā atpazīt viltus ziņas?

Ar līdzīga veida pārdomām žurnālam "Forbes" dalās ar Džosefs Entonijs, amerikāņu firmas "Hero Group" valdes priekšsēdētājs. Viņaprāt, "deepfake" izplatība tuvākajā laikā liks pārvērtēt vārda brīvības konceptu. Viņš uzsver, ka "šī tehnoloģija ar sociālo tīklu palīdzību potenciāli spēj ļoti īsā laikā maldināt lielu sabiedrības daļu, kas ir jo īpaši bīstami pirms lielu lēmumu veikšanas, piemēram, vēlēšanām. Šāda veida saturs var ne tikai iedragāt politiķu vai slavenību reputāciju, bet arī tiešā veidā ietekmēt biržas cenas vai starptautiskas vienošanās".

Viņš piebilst - lai arī lielākā daļa pašreiz atrodamo video ir veidoti izklaides vajadzībām, ir tikai laika jautājums, līdz šo tehnoloģiju sāks izmantot patiesi neglītiem mērķiem.

Pēc Zakerberga viltus video izplatīšanās, sakarā ar potenciālajiem draudiem, ko var radīt šādu tehnoloģiju attīstība, ASV Pārstāvju palātas Izlūkošanas komitejā tika sasaukta sēdē, kurā liecināja vairāki nozares eksperti.

"Deepfake" video varot būt nopietns drauds, ar ko mēs vēl neesam gatavi cīnīties.

Klints Vatss no Ārvalstu Politikas Pētniecības institūta brīdināja, ka šādi video var apdraudēt sabiedrības drošību, ja to nolemtu izmantot cilvēki, kas vēlas izplatīt dažādas sazvērestības teorijas. Kā piemēru viņš minēja gadījumus Indijā, kur dažādu nepatiesu izplatīšanās rezultātā, izmantojot lietotni "WhatsApp", notikuši vardarbīgi incidenti.

"Deepfake iespēju izplatīšanās tikai paaugstinās šādu vardarbīgu gadījumu biežumu un smaguma pakāpi," brīdināja eksperts. Profesore Daniella Sitrona no Merilendas Universitātes minēja gadījumu, kad kādas pētnieciskās žurnālistes oponenti radīja "deepfake" video, kurā minētā žurnāliste nodarbojas ar seksu. Ekspertus arī māc bažas, ka šādi video var ietekmēt demokrātiskos procesus pasaulē.

"Mēs esam nospiedošā mazākumā," sacīja Hanijs Farids, Kalifornijas Universitātes datorzinātņu profesors un digitālās kriminālistikas eksperts. "Cilvēku skaits, kas strādā video izveidošanas pusē, pret tiem, kas strādā to noteikšanas pusē ir 100 pret 1."

Raksta foto
Foto: Pexels

"Liels risks tehnoloģiju izmantot nelabvēlīgiem mērķiem pastāv arī sabiedriskajā dzīvē - ir dzirdēts, ka šī tehnoloģija tiek plaši pielietota pornogrāfijas veidošanai.

Tas var būt aktuāli jauniešiem, kuri neapzinās savu rīcību pilnās sekas - nevienam nav noslēpums, ka agrāk zēni izklaidējās, pieliekot erotiska rakstura plakātiem kādas klasesbiedrenes seju. Nu šāda "ākstīšanās" var būt ar krietni postošākām sekām," min arī jauno mediju mākslinieks Kristaps Biters.

Svarīgi minēt, ka tehnoloģija attīstās zibenīgā ātrumā. 2018. gadā tehnoloģijām veltītais portāls "Motherboard" spekulēja, ka līdz "deepfake" automatizācijai būs jāgaida vismaz gads. Tas notika pēc mēneša.

Vai tiešām esam bezspēcīgi?

Pašlaik tehnoloģija gan nav tik attīstīta, lai "deepfake" varētu pilnasinīgi izmantot dažādās dezinformācijas kampaņās, turklāt, patiecoties dažādu mākslinieku radītajiem darbiem un brīdinājumiem, viltus video problēmai arvien lielāku uzmanību pievērš ne tikai Interneta lietotāji, bet arī dažādu valstu likumdevēji.

» Princese Leija kā dzīva un Portmanes porno - cik viegli melus pārvērst par digitālu īstenību?

Pašlaik ne pārāk kvalitatīvus "deepfake" iespējams atpazīt ar neapbruņotu aci, savukārt jau labāk veidotus - ar īpašas programmatūras, kura fiksē minimālas neatbilstības cilvēka sejas uzbūvē, palīdzību. 

"Pieredzējis Interneta lietotājs tomēr spēj sajust, ka ar video kaut kas nav gluži kārtībā. Rodas sajūta, ka ir neatbilstība starp seju un pārējo ķermeni, redzamas nedabīgas grimases, dažos gadījumos - nesaprotamas, izplūdušas līnijas," ar padomiem par to, kā noteikt, vai video ir īsts, dalās Kristaps Biters.

Izlēmīgus soļus "deepfake" apkarošanā spērušas arī atsevišķas mājaslapas - pornogrāfisku materiālu skatīšanās vietne "PornHub", piemēram, dzēš visus video, kuriem uzliktas kādu sabiedrībā atpazīstamu cilvēku sejas. Lielbritānijā 2018. gadā par "video viltošanu" uz 16 nedēļām ieslodzīts kāds ierēdnis, kurš bija izplatījis rediģētu pornogrāfisku klipu ar savas kolēģes seju.

Kamēr tuvākajos gados gaidāma plaša cīņa ar attiecīgās tehnoloģijas ēnas pusēm, pastāv iespēja, ka to tomēr būs iespējams izmantot vairumam patīkamā un noderīgā veidā.

Raksta foto
Foto: Unsplash

"Šai tehnoloģijai ir liels potenciāls tikt pozitīvi izmantotai mākslas un izklaides jomās. Filmu veidotāji varētu piedāvāt ikkatram pašam kļūt par filmas vai jebkura cita video varoni. Interesanta varētu būt tehnoloģijas izmantošana mārketingā," saka jauno mediju mākslinieks Kristaps Biters.

Lai arī "deepfake", tāpat kā visas lietas, ir iespējams izmantot gan labiem, gan sliktiem mērķiem, nenoliedzams ir viens - nu spēja kritiski izvērtēt sevis patērēto saturu ir svarīgāka, kā jebkad.

Redaktors iesaka
Nepalaid garām
Uz augšu