Tiesāšanās un mākslīgais intelekts – filozofisks skatījums
Senāta Administratīvo lietu departamenta senatore Rudīte VĪDUŠA piedalījās Eiropas Tiesnešu apmācības tīkla (ETJN) organizētajā seminārā „Tiesāšanās un mākslīgais
intelekts – filozofisks skatījums”
(Trīre, 2023.gada 5.–9.jūnijs)
Seminārs deva iespēju dalībniekiem – tiesnešiem un prokuroriem – apzināt mākslīgā intelekta izmantošanas iespējas tiesā. Apmācība risinājās secīgi caur dažādām tēmām: apskats par šobrīd tiesvedībā jau praktizētajiem mākslīgā intelekta risinājumiem, skatījums uz tiesāšanu kā vidi mākslīgā intelekta izmantošanai, mākslīgā intelekta iespēju apzināšana, kā arī mākslīgā intelekta iespējamās ietekmes un risku paredzēšana. Semināra nozīmīgu daļu veidoja ekspertu priekšlasījumi, bet daļa laika bija atvēlēta reflektējošam darbam grupās.
Ieskatu pašreizējā digitālo tehnoloģiju un mākslīgā intelekta izmantošanā tiesu vidē sniedza Joss Smits (Jos Smits), kurš ir Nīderlandes Tieslietu padomes stratēģiskais padomnieks un izstrādājis tiesu sistēmas digitalizācijas stratēģiju. Eksperts iepazīstināja ar pamatjēdzieniem (parasto algoritmu un mākslīgā intelekta sistēmu atšķirība, mašīnmācīšanās, neironu tīkli, lielie dati) un ar piemēriem raksturoja, kā šie jēdzieni saistās ar to iespējamu izmantošanu gan vispār, gan tiesu sistēmā. Veidojot izpratni par mākslīgā intelekta būtību un iespējām, tika norādīti arī vispārīgie ierobežojumi mākslīgajam intelektam (nav dabisku jeb iedzimtu spēju – salīdzinoši cilvēks ne visu apgūst no nulles; AI atpazīst korelācijas, bet ne cēloņsakarības; maz vai nemaz veselā saprāta jeb netiešu zināšanu; labāk darbojas statiskā, nevis dinamiskā pasaulē; trūkst caurredzamības). Īpaši tika apskatīta tiesas spriešanā jau ilgāku laiku identificētā aizspriedumu problēma un tās rašanās t.s. pastiprināšanas aplī (circle of reinforcing), kad sākumā datos esošs humāns aizspriedums tiek tālāk sistemātiski nostiprināts. Tika izskaidrots, kādēļ, ievērojot mākslīgā intelekta darbības principu, šos aizspriedumus konkrētās sistēmās ir grūti laikus paredzēt, atpazīt un novērst. Tika apskatīti mākslīgā intelekta eksperimentālas un praktiskas izmantošanas piemēri: jurisays.com, kas prognozē lietas iznākumus Eiropas Cilvēktiesību tiesā; tehnoloģiju izmantošana, Francijas un Nīderlandes izmeklēšanas iestādēm iefiltrējoties EnroChat komunikāciju tīklā un analizējot miljoniem ziņu, kā rezultātā vairāku Eiropas valstu izmeklēšanas iestādes ir atklājušas smagus noziedzīgus nodarījumus.
Attiecībā uz tiesu sistēmu digitalizāciju vispār J.Smits atzīmēja četrus attīstības posmus: 1) analogais (netiek izmantotas digitālas tehnoloģijas); 2) pirmais digitalizācijas vilnis (datu digitalizēšana, bet būtībā tas vēl arvien ir tas pats informācijas apjoms, „digitāls papīrs”); 3) otrais digitalizācijas vilnis (ne tikai digitalizēti dati, bet tiesas process ir digitalizēts); 4) mākslīgā intelekta ieviešana.
Kā iespējamie ieguvumi mākslīgā intelekta izmantošanai tika iezīmēti: labi informēti prāvnieki un tiesneši, jo īpaši tipiskās lietās; iespēja strukturēt un veidot kopskatu lielu un sarežģītu lietu gadījumā; audiofailu anotēšana; atbalsts lēmumu pieņemšanā un modeļu analīzē; datu analīze dažādu darbību uzlabošanai (piemēram, identificēt viltotus pierādījumus, atklāt deep-fake gadījumus).
Šobrīd mākslīgā intelekta izmantošana Eiropā sāk ceļu arī uz tiesisku noregulējumu. Eiropas Padomes Tiesiskuma efektivitātes izvērtēšanas komisija (CEPEJ) 2018.gadā ir pieņēmusi Eiropas Ētikas hartu par mākslīgā intelekta izmantošanu tiesu sistēmās un vidē (European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment). Eiropas Savienībā šobrīd saskaņošanas procesā Parlamentā un Padomē ir pasaulē pirmais mākslīgā intelekta izmantošanas regulējums – Mākslīgā intelekta akts. Tas paredz risku pieeju, tostarp kā vienu no augsta riska jomām nosakot tiesvedības („AI sistēmas, kuru mērķis ir palīdzēt tiesu iestādēm faktu un tiesību normu izpētē un interpretēšanā un tiesību normu piemērošanā attiecībā uz konkrētu faktu kopumu”) un tiesībaizsardzību, kur attiecīgi ir augstāki priekšnoteikumi mākslīgā intelekta ieviešanai un prasības šādu sistēmu izmantošanai, tostarp caurredzamības, risku pārvaldības, sistēmu atbilstības novērtēšanas prasības. Mākslīgā intelekta akts redz mākslīgā intelekta sistēmas kā produktu, un tā riskus tendēts mazināt ar produkta drošuma prasībām. Kā bilda J.Smits, tas liek jautāt, vai tādā veidā iespējams pārvaldīt problēmas, kas pēc savas dabas ir matemātiskas.
Visbeidzot, J.Smits lika pie sirds atcerēties, ka nereti digitālo sistēmu izstrādātāji ir pirmie, kas īsteno kādu ideju par to, kā risināt problēmas ar digitāliem risinājumiem, un pēc tam – biznesa interesēs – meklē saviem produktiem pircēju (meklē risināmo problēmu, kam viņu izstrādātais produkts derētu). Taču tiesu sistēmām vajadzētu vispirms pašām apzināt problēmas, kuru risināšanai varētu izmantot digitālos risinājumus, un panākt, ka digitālās sistēmas tieši šīs problēmas risina, un tādā veidā drīzāk galarezultāts būs patiesi praktiski derīgs. Piemēram, ja tiesu sistēmā konstatēta problēma, ka cilvēki nenāk uz tiesas sēdēm, tehnoloģiju izstrādātājiem pēc problēmu apzināšanas ir jāmeklē idejas, vai situāciju nevar uzlabot arī ar digitāliem risinājumiem. Praksē nereti esot vērojams, ka digitalizācijas projektos nevar formulēt projekta iznākumu, sasniegtos mērķus, atrisinātās problēmas – vienkārši tiek izmantots tas, kas tiek izstrādāts. Tāpat mēdzot būt gadījumi, kad daudz resursus prasoši sarežģīti digitāli risinājumi problēmas būtībā neatrisina. Ne vienmēr risinājums ir meklējams jaunā tehnoloģijā. Tāpat jāpatur prātā, ka jauna lieta dos rezultātu tad, ja cilvēki to gribēs izmantot, savukārt tas panākams tad, ja viņi saprot, kāpēc tas nepieciešams un kas mainīsies un būs jāmaina. Vēlēšanos ieviest sistēmu var mazināt arī situācija, ka tie, kuriem sistēmā ir jāiegulda (piemēram, jāpapildina tā ar datiem) nav tie, kuri no sistēmas iegūst uzlabojumu, respektīvi, ir jāmeklē motivācija sistēmas dalībniekiem to izmantot. Kā piemērs tiesu sistēmā tika minēta pieredze ar vēlmi digitālas sistēmas darbības mērķiem standartizēt ievadāmos datus (standartization of input): ja lietotājam ir jāapgūst plaša sistēmā pieļaujamo datu vārdnīca, tas var kļūt tik apgrūtinoši un kļūdaini, ka ērtāk būs vispār tādu sistēmu nelietot. Tas jo īpaši jāņem vērā tiesu nolēmumu datubāzu veidošanā: nolēmumu un terminoloģijas standartizēšana padara iespējamu un efektīvu datubāžu meklējamību, taču šāda standartizācija nedrīkst kļūt pārāk apgrūtinoša un ierobežojoša.
Edinburgas Universitātes profesors Burkhards Šafers (Burkhard Schafer) savā priekšlasījumā „AI – pazudis tulkojumā” pievērsās mākslīgajam intelektam kā parādībai un iespējai plašākā kontekstā, lielā mērā ar filozofisku un pārdomas rosinošu ievirzi, jo īpaši par mākslīgo intelektu tiesās. Kā piemēri tika apskatīti mākslīgā intelekta – mašīntulkošanas iespējas mūsdienu daudzvalodu juridiskajā vidē, mākslīgā intelekta izmantošana pievienotās vērtības nodokļa krāpšanas shēmu (karuseļu shēmu) identificēšanā, saslēdzot kopā datus no vairākām valstīm. Tika turpināta tēma par mākslīgā intelekta vājajām vietām – piemēram, grūtības vai nespēja risināt loģiskas pretrunas (contradiction intolerant), ko tiesību piemērošanā cilvēki atrisina ar kolīziju novēršanas, svēršanas metodēm; emociju atpazīšana; uzvedības kompetenču (soft skills) trūkums. Mākslīgais intelekts liek atgriezties pie debates par to, vai sarežģītā lietā var būt tikai viens pareizs iznākums (Harts v. Dvorkins): šajā ziņā mākslīgais intelekts kā matemātiska sistēma pie „pareiziem datiem” var dot tikai vienu „pareizu iznākumu”.
Kanādas izcelsmes Oksfordas universitātes pētniece Dr. Keri Grīmena (Keri Griemen), kas specializējusies tehnoloģiju un tiesību saskares jomā, sniedza plašāku starpdisciplināru ieskatu mākslīgā intelekta iespējās un trūkumos – ko mākslīgais intelekts var un ko nevar, kā galveno vadmotīvu uzsverot – mākslīgais intelekts nedomā kā cilvēks. Viņa iepazīstināja ar dažādām mākslīgā intelekta idejām un projektiem, sākot no 20.gs. 40.gadiem, dažādiem mākslīgā intelekta definējumiem mūsdienās. Tālāk sekoja dziļāks skaidrojums par iepriekš jau īsi apzinātajiem ar mākslīgā intelekta darbību saistītajiem jēdzieniem – lielie dati, mašīnmācīšanās (izskaidrojot, ko nozīmē neuzraudzītā, uzraudzītā, daļēji uzraudzītā mācīšanās), to ilustrējot ar dzīvē īstenotiem mākslīgā intelekta projektiem, arī ikdienā sadzīvē bieži izmantotām tehnoloģijām, piemēram, sejas atpazīšana. Jo īpaši ilustratīvie piemēri bija derīgi, lai saprastu šaurās un vispārīgās mācīšanās pieejas atšķirību (kā pasauli apgūst mākslīgais intelekts un kā – cilvēka bērns), lai saprastu mākslīgā intelekta šā brīža iespēju robežas, piemēram, t.s. gudrā Hansa problēma, ChatGPT modeļa darbības princips un tā „kļūdu” izskaidrojums (nota bene: valodu modeļi var veidot lingvistiski augstvērtīgu tekstu, bet tie nesaprot šā teksta nozīmi un neuztver kontekstu), nespēju meklēt un identificēt tieši netipisko u.c.
Būtiska priekšlasījuma daļa tika veltīta XAI (eXplainable AI, izskaidrojamais jeb interpretējamais mākslīgais intelekts), kas tiek proponēts kā drošāks mākslīgā intelekta modeļu veids. Prasība pēc izskaidrojamiem mākslīgā intelekta modeļiem ir vērsta uz to, lai būtu iespējams identificēt un koriģēt aizspriedumus, izgaismot trūkumus funkcionalitātē, nodrošināt, ka modeļi darbojas atbilstoši mērķim, nodrošina iespēju paļauties uz šiem modeļiem. Tika iezīmētas interpretēšanas pieejas.
Gan ekspertu priekšlasījumi un diskusijas ar viņiem, gan sarunas ar tiesnešiem un prokuroriem no citām valstīm būtiski paplašināja redzesloku gan par mākslīgo intelektu un tā šā brīža iespējām un riskiem tā izmantošanā, gan par šobrīd dažādās valstīs jau esošajiem digitālajiem risinājumiem tiesu sistēmās. Jāatzīst, ka attīstības tempi un izmantoto digitālo risinājumu iespējas Eiropas valstu tiesās ir ļoti atšķirīgas. Atzīmējams, ka Nīderlandes tiesu sistēmas pieredze – gan kļūdas, gan sasniegumi – ir tā vērtas, lai pie iespējas salīdzinātu to ar Latvijas pieeju tiesu sistēmas digitalizācijai un rastu idejas tālākai attīstībai.