• 75%
  • 100%
  • 125%
  • 155%

Cilvēktiesību aizsardzība mākslīgā intelekta, algoritmu un lielo datu pasaulē

Senāta Administratīvo lietu departamenta senatore Dzintra AMERIKA pārstāvēja Augstāko tiesu tradicionālajā Eiropas Cilvēktiesību tiesas gada atklāšanas svinīgajā ceremonijā un piedalījās seminārā „Cilvēktiesību aizsardzība mākslīgā intelekta, algoritmu un lielo datu pasaulē”.
​Strasbūra, 2025.gada 31.janvāris

Senatore Dzintra Amerika un Eiropas Cilvēktiesību tiesas tiesnesis no Latvijas Artūrs Kučs

Svinīgajā ceremonijā, atzīmējot 2025. tieslietu gada oficiālo atklāšanu Eiropas Cilvēktiesību tiesā, uzrunas sniedza Eiropas Cilvēktiesību tiesas prezidents Marko Bošnjak un Francijas kasācijas tiesas pirmais prezidents Christophe Soulard.

Savukārt seminārā ar saviem priekšlasījumiem uzstājās Eiropas Cilvēktiesību tiesas tiesnese Saadet Yüksel (Turcija), Eiropas Padomes Drošības, integritātes un tiesiskuma direktore Hanne Juncher, Parīzes Nanterres universitātes Publisko tiesību profesore Lucie Cluzel-Métayer, Lietuvas Konstitucionālās tiesas tiesnesis, profesors Vytautas Mizaras un Oksfordas universitātes Oksfordas Interneta institūta Tehnoloģiju un regulējuma profesore Sandra Wachter.

Visi runātāji uzsvēra mākslīgā intelekta/algoritmisko sistēmu priekšrocības, vienlaikus norādot arī uz riskiem, tostarp cilvēktiesību apdraudējumu. Hanne Juncher norādīja uz tādām problēmām kā aizspriedumainība, dezinformācija, sistēmu izstrāde, neņemot vērā specifiskus riskus bērnu tiesību aizsardzības kontekstā, mākslīgā intelekta ļaunprātīga izmantošana vēlēšanu procesos.

Semināra dalībnieki tika informēti par Eiropas Padomes izstrādātajiem tiesību aktiem un citiem juridiskiem instrumentiem (metodoloģiju, kā novērtēt un vadīt riskus (HUDERIA metodoloģija), vadlīnijām, ziņojumiem u.c.), kas sekmē cilvēktiesību aizsardzību kontekstā ar mākslīgā intelekta radītajiem izaicinājumiem. Tāpat tika norādīts uz nākotnē plānotajiem darbiem juridisko instrumentu izstrādē, kas regulētu mākslīgā intelekta izmantošanu policijas, administrācijas, tieslietu, robežu un migrācijas pārvaldības jomā, kā arī kas attiektos uz kriminālatbildību saistībā ar mākslīgā intelekta izmantošanu. Kibernoziedzības jautājumos tiek gatavots pētījums par konkrētām saiknēm starp kibernoziedzību, elektroniskajiem pierādījumiem un mākslīgo intelektu. Tāpat tiek strādāts pie ieteikumiem par līdztiesību mākslīgā intelekta kontekstā. Profesore Lucie Cluzel-Métayer savukārt iezīmēja mākslīgā intelekta radītos riskus saistībā ar izteiksmes brīvību (piemēram, viltus informācija un dziļviltojumi, informācijas burbuļi, no kuriem tiek iegūta atlasāmā informācija, kļūdas un halucinācijas, fakts, ka sistēmas veidotas uz ASV datubāzu pamata, kas līdzi nes attiecīgo kultūrslāni).

Vytautas Mizaras referēja par tiesībām uz taisnīgu tiesu kontekstā ar mākslīgo intelektu. Viņš mākslīgā intelekta sistēmas tiesas spriešanas ietvaros definējis kā „ar mākslīgo intelektu darbināmus tiesnešus” (AI powered judges) jeb e-tiesnesi, uzdodot divus būtiskus jautājumus: vai e-tiesnesis ir saderīgs ar tiesību sistēmas vērtībām un vai pilnībā autonoms e-tiesnesis spēj analizēt prasījumus un pierādījumus, pieņemt lēmumus un rezultātā aizvietot tiesnešus. Vytautas Mizaras izdalīja trīs iespējamos mākslīgā intelekta izmantošanas veidus: kad mākslīgais intelekts pilda tehnisku funkciju – analizē liela apjoma informāciju, tiesu praksi, lai pamatotu tiesas argumentus; tiesneša uzraudzīts e-tiesnesis, kas pilda daudz aktīvāku lomu tiesas procesā, palīdzot sagatavot tiesas nolēmumus, kur tiesneša loma ir uzraudzīt, uzlabot un pabeigt e-tiesneša darbu; pilnībā autonoms e-tiesnesis, kas ir spējīgs sagatavot patstāvīgus nolēmumus noteiktu kategoriju lietās. Pēdējais būtu piemērots mazās un vienkāršās lietās. Referents analizēja katra no šo „tiesnešu” veidiem ieguvumus un mīnusus, atzīstot gan, ka „īstais” tiesnesis nav aizstājams. Profesors kontekstā ar tiesībām uz taisnīgu tiesu un mākslīgo intelektu aplūkoja arī jautājumus par sacīkstes principu, procesuālā taisnīguma principu, nolēmuma pamatojumu, atklātu tiesas procesu, tiesneša neatkarību un objektivitāti, procesa ilgumu un tiesisko noteiktību.

Savukārt Sandra Wachter vispirms iezīmēja pamatprincipu (vienkāršotā veidā), kā mākslīgais intelekts darbojas, proti, tas lūkojas pagātnē, cenšoties paredzēt nākotni, kas realitātē rada problēmas. Referente iezīmēja virkni interesantu piemēru, kā, balstoties uz pagātnes datiem, kā arī uz aizspriedumiem un diskriminējošiem datiem balstītos algoritmos, tiek pārkāpti cilvēktiesību standarti. Sandra Wachter atsaucās arī uz juridisko literatūru, kur ir pētīti jautājumi par mākslīgā intelekta mijiedarbību ar cilvēktiesībām. Profesore vērsa uzmanību uz tiešo diskrimināciju, kura ir acīmredzama, kā arī uz netiešo diskrimināciju, kas pirmšķietami nenorāda uz diskrimināciju. Tāpat profesore iezīmēja grūtības, kas rodas, pierādot netiešās diskriminācijas (t.s. automatizētā diskriminācija) esību, vispirms jau norādot, ka automatizētā diskriminācija ir abstrakta, smalka, netaustāma, tā nevar tikt noteikta intuitīvi. Tādēļ cietusī persona var arī nesaprast, ka tā ir cietusi, kas ir problēma sistēmā, kur prasība ir jāceļ pašam prasītājam. Tāpat ir grūtības ar pierādījumu iegūšanu. Salīdzinājumā ar cilvēku algoritmi secinājumu izdarīšanai izmanto tādus datus, kādus cilvēki neizmanto (piemēram, ēšanas paradumi, mūzikas izvēle, meklējumi internetā, krāsu izvēle un tā korelācija, piemēram, ar piederību kādai konkrētai reliģijai, vecumu vai dzimumu). Profesore arī iezīmēja, ka līdz ar automatizēto diskrimināciju papildus jau tiesību normās noteiktajām (dzimums, rase, ādas krāsa utt.) var veidoties jaunas cilvēku grupas, kas var tikt diskriminētas pēc noteiktām pazīmēm (piemēram, suņu īpašnieki, videospēļu spēlētāji). Profesore sniedza vairākus reālus piemērus šādai iespējai, piemēram, Nīderlandē augstāks nekustamā īpašuma nodoklis bija jāmaksā tādiem īpašniekiem, kuru adrese ietvēra ciparus un burtus, savukārt tiem, kuru adrese neietvēra burtus, bija mazāks nodoklis. Tāpat personas tikušas diskriminētas situācijā, kad darba pieteikumu nosūtījušas, izmantojot konkrētu interneta platformu u.c. Referente norādīja uz risinājumu šiem izaicinājumiem: neobjektivitātes/aizspriedumu testu (bias test), kam gan arī ir jāsaskan ar cilvēktiesību standartiem. Pēc pārbaudes atklājās, ka no 20 izstrādātajiem testiem 13 neatbilda likumam. Šobrīd viens no galvenajiem pasaulē izmantotajiem testiem neatbilst standartiem, iemels – tests izstrādāts ASV, kur ir fundamentāli cita tiesību sistēma.

Gan semināra ieraksts, gan svinīgās uzrunas pieejamas Eiropas Cilvēktiesību tiesas mājaslapā: https://www.echr.coe.int/w/opening-of-the-judicial-year-2025-1. Arī tiesību aktu (arī tādu, kas nav juridiski saistoši) un Eiropas Cilvēktiesību tiesas prakses mākslīgā intelekta kontekstā apkopojums ir pieejams tiesas mājaslapā: https://www.echr.coe.int/documents/d/echr/seminar-background-paper-2025-eng.