Ceturtdiena, 5. marts
Austra, Aurora, Aurika
weather-icon
+1° C, vējš 1.79 m/s, ZR vēja virziens
ZZ.lv bloku ikona

Netici savām acīm – kā ar lētiem un dziļiem viltojumiem dezinformē un grauj reputāciju

Arvien biežāk sociālajos medijos popularitāti gūst pārveidoti video, kuros radīts iespaids, ka runātājs ir garīgi nestabils vai lietojis apreibinošas vielas. Pētnieki tos sauc par lētviltojumiem, jo maldinošais efekts panākams ātri un vienkāršiem līdzekļiem – pretstatā daudz sarežģītākām un grūtāk atpazīstamām metodēm, ar kuru palīdzību var izmainīt ne vien cilvēka balsi, bet arī mīmiku un kustības.
“Re:Check” vairākkārt rakstījis par izmainītiem video, ar kuriem tiek kariķēti Latvijas politiķi. Nesen “Facebook” popularitāti guvis video, kurā premjerministrs Krišjānis Kariņš (“Jaunā vienotība”) izsakās par vakcīnām un zaļās pases jeb vakcinācijas sertifikāta ieviešanu. Videomateriāls ir ievērojami palēnināts. Daži “Facebook” lietotāji ierakstu komentējuši, ka video ir pārveidots, taču atsevišķi komentāri liek domāt, ka cilvēki tic – Kariņš video ir alkohola reibumā, kaut ko salietojies, ir arī versija, ka tādas ir kovidvakcīnas sekas. Ar ierakstu dalījušies jau vairāk nekā septiņi tūkstoši lietotāju.
Šī nav pirmā reize, kad pārveidots Kariņa teiktais. Marta beigās “Re:Check” rakstīja par līdzīgu video, kurā tika palēnināts arī tieslietu ministra Jāņa Bordāna (JKP) sacītais par gaisa ventilāciju skolās. Toreiz lielu auditoriju pārveidotajam video nodrošināja opozīcijā esošās Zaļo un zemnieku savienības valdes loceklis Pēteris Dimants, kurš to pārpublicēja savā “Facebook” joslā. Lai gan vairāki komentētāji “Facebook” norādīja, ka video ir pārveidots, P.Dimants teicās tos neredzējis.

Lēts, bet efektīvs
Šādus video vai audio viltojumus angliski dēvē par “cheapfake” jeb – latviskojot – lētviltojumiem. Tie veidoti ar ļoti vienkāršiem līdzekļiem, taču dezinformācijas izplatīšanā izrādījušies efektīvi. Tie ietver videoklipus, kas ir paātrināti vai palēnināti, lai radītu kļūdainu iespaidu, ka cilvēks ir alkohola reibumā vai viņam ir medicīniska rakstura problēmas, 2020. gadā tapušā pētījumā par viltojumiem norāda NATO Stratēģiskās komunikācijas izcilības centrs “StratCom”.
Pētījumā arī uzsvērts, ka viltus ziņu izplatītāji dod priekšroku tieši šīm vienkāršajām un pārbaudītajām metodēm, jo tām nav nepieciešamas īpašas zināšanas vai resursi. Tiesa, tā kā lētviltojumu jēdziens kļūst zināms arvien plašākai auditorijai, sabiedrības skepse var mazināt dezinformācijas kampaņu efektivitāti, secina “StratCom” pētnieki.
Šāda vienkārša taktika, lai maldinātu un radītu iespaidu par politiskā sāncenša prāta skaidrību, vairākkārt izmantota arī ASV. Piemēram, ar palēninātu ASV Pārstāvju palātas spīkeres un Demokrātu partijas pārstāves Nensijas Pelosi runas fragmentu pērn vasarā dalījās vairāk nekā 90 tūkstoši “Facebook” lietotāju, norāda ziņu aģentūras “Reuters” faktu pārbaudītāji. Cits līdzīgs video ar spīkeri izplatīts vēl gadu iepriekš, raksta “The Guardian”. Ar vienu no šiem video dalījās arī tālaika ASV prezidenta Donalda Trampa atbalstītāji, piemēram, viņa advokāts Rūdijs Džuliāni.

Kas ir dziļviltojums?
Paralēli lētviltojumiem arvien biežāk tiek izmantoti tā sauktie dziļviltojumi (no angļu vārda “deepfake”) – video, kuros mainīta cilvēka seja un pārliecinoši ielikti cilvēka mutē vārdi, kurus viņš nekad nav teicis. “StratCom” eksperts Gundars Bergmanis-Korāts “Re:Check” skaidro, ka dziļviltojumu pamatā ir mākslīgais intelekts jeb mākslīgā intelekta modelis, kas ir spējīgs iemācīties datos esošās rakstura iezīmes. Dziļviltojuma gadījumā šis mākslīgā intelekta modelis spēj ģenerēt augstas kvalitātes un ļoti reālistiskus sintētiskos datus. “Savukārt, piemēram, sabiedrībai ļoti plaši pieejamās aplikācijas, kur var apmainīt sejas un kur mēs ļoti veiksmīgi ar aci varam pamanīt, ka dati ir manipulēti – tos varam dēvēt par “cheapfakes”,” uzsver G.Bergmanis-Korāts.
Pētnieks norāda, ka dziļviltojumiem var būt dažādas formas. Mākslīgo intelektu var izmantot kā balss sintēzē, tā arī reālistiska teksta vai attēlu un video ģenerēšanā.

Kā tos izmanto?
Starptautiskais inovāciju medijs “Mashable” min populāra dziļviltojuma piemēru: “YouTube” video, kurā izmantots mākslīgais intelekts, lai komiķa Bila Heidera sejā ieliktu aktiera un bijušā politiķa Arnolda Švarcenegera vaibstus. Taču tas tiek darīts ne tikai izklaides nolūkos, bet arī politisku mērķu sasniegšanai. Piemēram, 2018. gadā kāda Beļģijas politiskā partija izplatīja viltotu video, kurā toreizējais ASV prezidents Donalds Tramps it kā uzrunā Beļģijas sabiedrību un aicina sekot Amerikas piemēram, izstājoties no Parīzes klimata līguma. Lai gan video beigās neīstais Tramps sacīja, ka video ir viltots, šī norāde nebija iztulkota nīderlandiešu valodā, daudziem radot iespaidu, ka uzruna ir īsta. Britu TV kanāls “Channel 4” aizvadītajos Ziemassvētkos pārraidīja mākslīgi izveidotu karalienes Elizabetes uzrunu tautai, norādot, ka tā vēlas pievērst uzmanību arvien aktuālākajai problēmai.
Tāpat dažādos pētījumos norādīts, ka bieži šādus viltojumus mēdz izmantot, lai grautu cilvēka reputāciju, ieliekot viņa seju, piemēram, pornogrāfiskos video. Tā kā dziļviltojumus bieži vien atšķirt no īsta video, audio vai attēla ir gandrīz vai neiespējami, tie var radīt reālus draudus sabiedrībai, arī, piemēram, attīstot kibernoziedzību.
“Salīdzinoši nesen mākslīgā intelekta modeļa pielietošana prasīja padziļinātas IT zināšanas un iemaņas, taču šī tehnoloģija diezgan strauji attīstās un jau ir kļuvusi sabiedrībai pieejama, piemēram, dažādās mobilajās aplikācijās vai tiešsaistes servisos, lai, apmainot sejas, iejustos slavenības ādā,” skaidro G.Bergmanis-Korāts. Mākslīgo intelektu var izmantot ļoti plaši. Piemēram, blogeriem veidojot savus podkāstus. Ja kaut kas ierunāts nepareizi vai cilvēks ir pārteicies, viņš vēlāk šo podkāstu var labot, pielabojot rakstīto tekstu, un tad šis mākslīgais intelekts pārģenerē viņa balsi attiecīgi šim labojumam.
Aizvien pieaugošās bažas par dziļviltojumiem un to iespējamo izmantošanu ļaunprātīgos nolūkos ir mudinājušas valdības un privāto nozari rīkoties. Lielākie sociālo mediju kanāli, tostarp “Facebook”, “Twitter” un “Reddit”, ir ieviesuši jaunu politiku un sola vērsties pret dziļviltojumu izmantošanu dezinformācijas nolūkos.

Vai iespējams atpazīt?
G.Bergmanis-Korāts “Re:Check” norāda, ka ļoti labas kvalitātes dziļviltojuma tehnoloģija ir pietiekami pārliecinoša, lai cilvēkus apmānītu – pamanīt nepilnības ar aci ir ļoti grūti. “Ir uzņēmumi, kuri jau pašlaik piedāvā “deepfake” noteikšanas pakalpojumus, kurus, piemēram, var iestrādāt mediju monitoringa rīkos vai sociālajos medijos. Paredzams, ka šāda integrācija nākotnē tikai palielināsies,” piebilst “StratCom” eksperts.
Viņš norāda, ka cilvēkam, iepazīstoties ar jebkuru jaunu informāciju, ir jābūt ļoti piesardzīgam – jāvērtē ne tikai video kvalitāte un tajā minētie fakti, bet arī emocijas, ko tas rada: “Tādā ļoti klasiskā gadījumā mēs noteikti varam pētīt pašu video, kāda ir cilvēka runa un sejas izteiksme. “Cheapfake” video gadījumā būs redzami kādi artefakti jeb neprecizitātes, kas rodas mākslīgā intelekta modelim, ģenerējot šo produktu. Tātad esam ļoti piesardzīgi, vērtējam, ko šis video grib mums pateikt, vērtējam, kā šis video ietekmē mūsu emocijas – vai mēs neesam mērķa grupa kaut kādai koordinētai aktivitātei!”
Par iespējamu dziļviltojumu tika runāts arī saistībā ar Krievijas opozicionāra Alekseja Navaļnija līdzgaitnieku Leonīdu Volkovu. Saeimas deputāts Rihards Kols atklāja, ka Ārlietu komisijas deputāti videozvanā sarunājušies ar kādu cilvēku, kurš uzdevies par Volkovu. R.Kola publicētais ekrānšāviņš liecināja, ka “viltus Volkovs” tādā pašā sarunā ar Igaunijas deputātiem bijis ļoti līdzīgs īstajam. Vēlāk tika pieļauts, ka izmantotas dziļviltojuma metodes, viltvārdim sarunā izmantojot īstā Volkova attēlu. Cilvēks, kurš, iespējams, sazinājās ar Kolu un kuru Volkovs sauc par Kremļa aģentu, gan “The Guard­ian” žurnālistiem to noliedza.
Vai tiešām bija dziļviltojums vai arī izmantots ļoti līdzīgs cilvēks? “StratCom” eksperts G.Bergmanis-Korāts norāda, ka ar publiski pieejamo informāciju nepietiek, lai to secinātu. Lai saprastu, vai izmantotas dziļviltojuma tehnoloģijas, būtu jāanalizē pats video. 

“Re:Check” ir Baltijas pētnieciskās žurnālistikas centra “Re:Baltica” paspārnē strādājoša virtuāla faktu pārbaudes un sociālo tīklu pētniecības laboratorija. Vērtējumu piešķir vismaz divi redaktori vienojoties. 
Ja arī jūs redzat apšaubāmu apgalvojumu, sūtiet to uz [email protected].

ZZ.lv bloku ikona Komentāri

ZZ.lv aicina interneta lietotājus, rakstot komentārus, ievērot morāles, ētikas un pieklājības normas, nekūdīt uz vardarbību, naidu vai diskrimināciju, neizplatīt personas cieņu un godu aizskarošu informāciju, neslēpties aiz citas personas vārda, neveikt ar portāla redakciju nesaskaņotu reklamēšanu. Gadījumā, ja komentāra sniedzējs neievēro minētos noteikumus, komentārs var tikt izdzēsts vai autors var tikt bloķēts. Administrācijai ir tiesības informēt uzraudzības iestādes par iespējamiem likuma pārkāpumiem. Jūsu IP adrese tiek saglabāta.