13. Oktobris 2020 /NR. 41 (1151)
Notikums
Vai datu aizsardzība un tehnoloģiju attīstība neizbēgami konfliktē
Lai gan izdevums nodrukāts limitētā skaitā, datiem un tehnoloģijām veltīto grāmatžurnālu interesenti vēl var iegādāties VSIA "Latvijas Vētnesis" Klientu centrā Bruņinieku ielā 53, Rīgā vai aizpildot iegādes pieteikumu elektroniski izdevēja mājaslapā https://lv.lv/gramatas
Foto: Santa Sāmīte

Pēc vairāku mēnešu daudzu autoru kopdarba pagājušonedēļ pie "Jurista Vārda" lasītājiem nonāca jau trešais grāmatžurnāls, kas šoreiz tika veltīts datu aizsardzībai, izmantošanai un tehnoloģijām. Izdevuma atvēršanas pasākumā 7. oktobrī Latvijas Universitātē (LU) bija saklausāms, ka dati ir mūsdienu nafta un šis nešaubīgi ir mākslīgā intelekta un tehnoloģiju attīstības laikmets, tāpēc nepieciešamība atrast līdzsvaru starp datu aizsardzību un mākslīgā intelekta progresu ir tik aktuāla kā nekad iepriekš. Tomēr pagaidām viennozīmīgi nav atbildams, kāds ir šī līdzsvara ietvars un robeža, pie kuras attīstībai jāapstājas, lai tehnoloģijas cilvēcei kalpotu, nevis kaitētu. Pasākuma video pieejams portālā juristavards.lv.

Lai gan sākotnēji datiem kā tehnoloģiju laikmeta resursam veltītā grāmatžurnāla atvēršana bija ieplānota kā "Jurista Vārda" autoru un lasītāju klātienes tikšanās, epidemioloģiskās drošības dēļ, ievērojot piesardzību, pasākumā pulcējās tikai redakcijas pārstāvji un izdevuma autori viesredaktores Viktorijas Soņecas vadībā. Domapmaiņas rosināšanai par digitālā laikmeta tiesiskajiem un ētiskajiem izaicinājumiem, ko citi interesenti varēja vērot tiešsaistē, uz pasākumu vēl bija aicināti divi viesi – LU Juridiskās fakultātes asociētais profesors Dr. iur. Artūrs Kučs un LU Mākslīgā intelekta laboratorijas vadītājs Dr. sc. comp. Normunds Grūzītis. Viņu paustās pārdomas atspoguļoja, ka izvērstām diskusijām, kas Eiropas un starptautiskajā mērogā noris jau sen, ir vieta arī nacionālajā līmenī, jo datu aizsardzība un tehnoloģiju attīstība ir tik starpdisciplināra, ietilpīga un sarežģīta tēma, uz kuru nav iespējams ātrs un vienkāršots skatījums. Pirmajā mirklī pat šķiet, ka tās ir neizbēgami konfliktējošas viena procesa divas puses.

Tā, piemēram, N. Grūzītis, daloties pieredzē par Māk­slīgā intelekta laboratorijas pētnieku konstatētajām problēmām, atklāja, ka neskaidrības dēļ viņi dažkārt spiesti lavierēt un uz to mudina apstākļi, nevis pašu brīvā griba. Viņa pārstāvētajā institūcijā pētnieki daudzus gadus nodarbojas ar latviešu valodas sapratnes un ģenerēšanas uzdevumiem. Šim nolūkam kalpo mākslīgais intelekts, un tas, kā zināms, balstās uz mašīnmācīšanos. Svarīgi, ka konkrētajā gadījumā tam ir vajadzīgi reāli dati, nevis mākslīgi sintezēti, piemēram, runātas (audioieraksti un to atšifrējumi) un rakstītas valodas paraugi, kas tiek izmantoti mašīnmācīšanai. Attiecīgi tas saistās ar tādiem jēdzieniem kā datu ieguve, izmantošana un tālāknodošana, kas pēdējo gadu laikā tiesiskā regulējuma dēļ vairs nav tik vienkārša.

N. Grūzītis stāsta, ka datu ieguvei pastāv vairākas iespējas un, kamēr vien tā ir tikai pašu veikta pētniecība, šos datus var izmantot pietiekami brīvi. Taču problēmas rodas situācijās, kad pētnieki vēlas dalīties ar iegūtajiem rezultātiem, tos nododot tālāk citiem pētniekiem Latvijā vai ārvalstīs vai arī komersantiem, lai tie, balstoties uz šiem datiem, izstrādātu jaunus rīkus un inovatīvus produktus. Pēc eksperta paustā, ne vienmēr ir skaidrs, ko var vai nevar nodot tālāk, tādēļ pastāv tāda kā pelēkā zona, par kuru precīzas atbildes nav. Piemēram, ja runa ir par sensitīviem datiem, tas ir gana regulēts jautājums, un ir skaidrs, ka šādi dati bauda visaugstāko aizsardzības pakāpi. Taču pētniekus mulsina situācija, kad darbam tiek izmantoti publiski resursi, proti, brīvi pieejama informācija jeb publicētu ziņu teksts – gadījuma rakstura rindkopas, nevācot specifisku informāciju par konkrētām personām. Izrādās, ka šī ir viena no slidenajām zonām, jo ar šādiem datiem saistītus pētījumus nedrīkst nodot citiem. Tādēļ paradoksālā kārtā pētnieciskā institūcija tos pasludina par atvērtajiem datiem, pievienojot nepieciešamās atrunas, un citiem tie tāpat kļūst pieejami, bet izpaliek šis "nodošanas" process, kas pats par sevi nav atļauts. "Mēs labprāt dalītos ar datiem, par kuriem veselais saprāts saka, ka tie nav sensitīvi, jo tāpat ir publiski pieejami, bet, no otras puses, ar normatīviem mums ir sasietas rokas, bet atbilžu nav," ilustrējot praktiskās problēmas, pauda N. Grūzītis.

Klātesošie tūlītēju atbildi par izeju no šādas situācijas gan nevarēja sniegt, taču Datu valsts inspekcijas direktore Jekaterina Macuka oponēja viedoklim, ka personas datu aizsardzība ir apgrūtinājums strādāt. "Diezgan bieži un arī šajā diskusijā dzirdu zemtekstu, ka dati un personas datu aizsardzība kaut kam traucē. Un vienmēr gribu oponēt, ka personas datu aizsardzība nekam netraucē, jo pēc būtības tas ir tikai rīks, spēles noteikumi, kā mēs varam aizsargāt citas pamattiesības. Tas nosaka šo tvērumu," pauda eksperte. Savukārt, runājot par tiesiskā ietvara tvērumu un spēles noteikumiem, Dr. iur. Artūrs Kučs secināja, ka tehnoloģiju un mākslīgā intelekta kontekstā ir jomas, kas nav vispār vai ir vāji regulētas, turklāt visam līdztekus ir lielais jautājums par atbildību, jo arī mākslīgais intelekts var kļūdīties. "Tāpēc ir svarīgi, ka mēs kā juristi iesaistāmies un meklējam šos risinājumus. Un te ir jāatrod pareizais līdzsvars, bet to atrast nav vienkārši, lai vienlīdz nodrošinātu gan tehnoloģiju attīstību, gan aizsargātu indivīdu," uzskata A. Kučs, rosinot uz pārdomām arī par to, vai tehnoloģiju un mākslīgā intelekta attīstībai būtu nosakāmas robežas, kad esam gatavi pateikt: pat ja tehnoloģija to izdarītu daudz ātrāk un efektīvāk, šo konkrēto iespēju noraidām, jo tas vairs neatbilst vērtībām un principiem, uz kuriem mēs kā sabiedrība esam balstīta. Piemēram, līdzīgi kā Eiropas mērogā ir vienošanās, ka cilvēku klonēšana ir aizliegta. "Tā ir sabiedrības vienošanās, kurš ir tas ietvars. Tieši tādēļ ir nepieciešama šī izvērstā diskusija," uzskata A. Kučs.

Jautājumu par to, kā pasargāt sabiedrību no kaitējuma, ko var nodarīt tehnoloģijas un kaitīgiem vai neētiskiem mērķiem izstrādāta programmatūra, aktualizēja arī pasākumā klātesošais grāmatžurnāla raksta "Kiberdrošība – tiesiski aizsargājama vērtība" autors Dr. iur. Uldis Ķinis. Taču, oponējot A. Kučam, kurš norādīja uz normatīvās bāzes nepietiekamību, U. Ķinis pauda, ka "absolūti neko neatrisinās arī miljons likumu pieņemšana. To jautājumu noregulēs, bet tikmēr jau būs radusies nākamā problēma". Tādēļ viņš pievienojās viedoklim, kas savulaik pausts Tunisas samitā par informācijas sabiedrību, ka viens no principiem, kas izvirzāms kā tiesiskuma garants, ir tehnoloģiskā neitralitāte. "Tas nozīmē, ka patiesībā tiesību politikas veidotājam, tiesību radītājam un piemērotājam, visiem, ir jādomā tehnoloģiski neitrāli! Tas ir princips, kas jāievieš dzīvē," uzskata U. Ķinis. Šim aspektam būtisku nozīmi piešķīra arī Datu valsts inspekcijas direktore, akcentējot, ka tehnoloģijas kā tādas ir neitrālas – nav labu vai sliktu tehnoloģiju, jautājums ir tikai par izmantošanu, tāpēc "datu aizsardzības mērķis ir noteikt ietvaru, kurā tehnoloģiski neitrāli varam darboties, izmantojot veselo saprātu un ņemot vērā ētiku".

ATSAUCE UZ ŽURNĀLU
Egle E. Vai datu aizsardzība un tehnoloģiju attīstība neizbēgami konfliktē. Jurista Vārds, 13.10.2020., Nr. 41 (1151), 6.-7.lpp.
patīk
drukāt
VISI RAKSTI 13. Oktobris 2020 /NR. 41 (1151)
0 KOMENTĀRI
TAVA ATBILDE :
VĀRDS
3000
IENĀKT:
PIEVIENOT
KOMENTĒŠANAS NOTEIKUMI
Šajā tīmekļa vietnē tiek izmantotas sīkdatnes. Turpinot lietot šo vietni, jūs piekrītat sīkdatņu izmantošanai. Uzzināt vairāk.
komentēt
Pievienot rakstu mapē
Pievienot citātu mapei
Pievienot piezīmi rakstam
Drukāt
ienākt ar
JURISTA VĀRDS
Abonentiem! Ieiet šeit
GOOGLE
DRAUGIEM.LV
reģistrēties
autorizēties