2023. gada oktobrī dažādos sociālajos medijos, piemēram, X (iepriekš – Twitter), TikTok, Facebook u.c., tika izplatīts videoieraksts, kurā Valsts prezidents Edgars Rinkēvičs aģitē par Latvijas izstāšanos no NATO un Eiropas Savienības (turpmāk – ES). Videoieraksts tika ģenerēts, izmantojot mākslīgo intelektu (turpmāk – MI) jeb dziļviltojuma (deepfake) tehnoloģiju. Videoieraksta mērķis bija informēt sabiedrību, ka MI var radīt risku politiķu tēlam vai vēlēšanām.1 Tomēr šis nav pirmais gadījums, jo MI mūsdienās tiek izmantots arvien biežāk, lai radītu risku politiķu tēlam un vēlēšanām ne tikai Latvijā, bet arī ārzemēs. Piemēram, 2017. gadā Kanādas uzņēmums Lyrebird izveidoja audioierakstu, kurā Baraks Obama, Donalds Tramps un Hilarija Klintone runāja par viltus ziņām. Lai gan šī saruna starp minētajiem politiķiem nekad nebija notikusi un audioierakstā dzirdamā informācija nebija izskanējusi publiski, šāds ieraksts radīja nemieru Amerikas Savienoto Valstu (turpmāk – ASV) sabiedrībā.2 Tādēļ šajā rakstā autore apskatīs, kādus juridiskus pasākumus var īstenot, lai aizsargātu Latvijas Republikas demokrātiskos procesus3 no MI radītās dezinformācijas ietekmes vēlēšanu laikā, un kā šos pasākumus var īstenot efektīvāk.
1. MI izraisītais risks politiķu tēlam un vēlēšanām
Risks politiķu tēlam vai vēlēšanām, izmantojot MI, var tikt radīts vairākos veidos. Piemēram, radot un izplatot dezinformāciju, manipulējot sabiedrības domas un demonstrējot personalizētu saturu vēlētājiem bez to piekrišanas, kā arī maldinot politiķus ar MI radītu saturu, piemēram, MI ģenerētām vēstulēm. Šie veidi var tikt kombinēti kopā, lai radītu dažādus riskus. Minētie veidi nav jauni, bet MI ir devis iespēju palielināt risku efektivitāti, kas rada jaunus problēmjautājumus tieši šo risku pārraudzībai, piemēram, tādējādi tiek apgrūtināta šo risku atklāšana.4
1.1. Dezinformācijas radīšana un izplatīšana
Maldinoša satura veidošanā un izplatīšanā tiek izmantotas dažādas MI lietojumprogrammas.
Pirmkārt, maldinoši ziņu portālu un sociālo mediju raksti, fotoattēli, skaņu vai video ieraksti tiek ģenerēti, lai ietekmētu vēlētājus, viņu viedokli un balsošanas izvēli vēlēšanu laikā. Vairākas MI lietojumprogrammas piedāvā dažādus veidus, kā radīt un izplatīt dezinformāciju, piemēram, izmantojot jau publicētus rakstus, lai informācija lasītājam šķistu ticama.5
Otrs veids, kā var radīt un izplatīt dezinformāciju, ir, izmantojot dziļviltojumu tehnoloģiju. Dziļviltojums ir digitāli manipulēts mediju veids, piemēram, video vai skaņas ieraksts, fotogrāfija, lai pārliecinoši aizstātu viena cilvēka līdzību ar citas personas līdzību.6 Dziļviltojumi bieži tiek ģenerēti ar ļaunprātīgu nolūku un rada vairākus juridiskus izaicinājumus – kibernoziegumu gadījumu pieaugumu, “atriebības pornogrāfiju” (revenge porn), draudus demokrātijai, dezinformāciju sociālajos medijos utt.7 Dziļviltojumi, kas tiek izstrādāti, izmantojot politiķu tēlus, vai izstrādāti saistībā ar vēlēšanām, var radīt finansiālus riskus, kaitēt reputācijai un ietekmēt vēlētāju lēmumu pieņemšanu, ja tiek ģenerēti dziļviltojumi par politiķiem vai vēlēšanām ar nepatiesiem kandidātu paziņojumiem, samākslotiem skandāliem, viltus ziņām utt.
Lai lasītu šo rakstu tālāk, Tev jābūt žurnāla abonentam.
Esošos abonentus lūdzam autorizēties:
Ja vēl neesi abonents, aicinām pievienoties lasītāju pulkam.
Iegūsi tūlītēju piekļuvi digitālajam saturam!
Piedāvājam trīs abonementu veidus. Vienam lietotājam piemērotākais ir "Mazais" (3, 6 un 12 mēnešiem).
Abonentu ieguvumi:
Eseja „Jurista Vārda” Domnīcā – brīvas formas, apjomā un tēmā neierobežotas pārdomas, kas vērstas tiesiskas domas un prakses attīstības virzienā.
Tā ir iespēja piedalīties juristavards.lv satura veidošanā, rosinot diskusiju par redzēto, dzirdēto vai domās apcerēto.