A. Antonova. Paaiškinamas dirbtinis intelektas (XAI) teismo sprendimų priėmime Europoje
Nors teigiama, kad dirbtinis intelektas (DI) padeda didinti efektyvumą, supaprastinti administracines užduotis ir gerinti teisines galimybes, jo naudojimas priimant teismo sprendimus taip pat kelia nemažai iššūkių. Teismų sprendimai gali negrįžtamai paveikti bylos šalių gyvenimus. Todėl Europos Sąjungos (ES) DI Aktas klasifikuoja kaip didelės rizikos DI sistemas, skirtas teisingumui, t. y. naudojamas teisminėms institucijoms arba jų vardu, siekiant padėti teisminėms institucijoms ieškoti faktų ir aiškinti faktus ir teisę bei taikyti įstatymus konkretiems faktų rinkiniams [1]. Dėl šios klasifikacijos joms taikomi visi didelės rizikos DI reikalavimai pagal įstatymą, įskaitant skaidrumo, žmogaus priežiūros, tikslumo, rizikos valdymo ir kitus įsipareigojimus. Kadangi diegėjo pareiga yra užtikrinti žmogaus atliekamą didelės rizikos sistemų, įskaitant teismuose naudojamą dirbtinį intelektą, priežiūrą, būtina, kad teisėjai ne tik būtų susipažinę su atitinkamomis sąvokomis, bet ir deramai suprastų algoritmus prieš juos naudodami [2].
Atsižvelgdama į tai, UNESCO neseniai paskelbė patikslintą DI naudojimo teismuose ir tribunoluose gairių projektą, kuriame paaiškinamumas yra laikomas neatsiejama saugaus ir patikimo DI dalimi, kartu su kitais esminiais veiksniais, tokiais kaip į žmogų orientuotas dizainas, kuriame būtinas žmogaus dalyvavimas, atskaitomybė, žmogaus teisių apsauga, atviras teisingumas ir kiti[3]. Pagrindinis DI naudojimo teismo sprendimų priėmimo procese iššūkis yra tai, kad, aklas pasitikėjimas algoritmų rezultatais, gali sąlygoti teisės į motyvuotą sprendimą ir teisės į teisingumą pažeidimus. Kai teisėjas negali suprasti, kokiu pagrindu sistema priėmė tam tikrą sprendimą, o atsakovas negali prasmingai interpretuoti tokių sistemos rezultatų, kyla rizika pažeisti procedūrinį teisingumą. Paaiškinamas DI (XAI) padeda sumažinti tokią riziką ir prisideda prie patikimų sistemų, taikomų teismų srityje, kūrimo.
Paaiškinamas dirbtinis intelektas (XAI)
DI paaiškinamumas reiškia gebėjimą apibūdinti tiek DI sistemų techninius procesus, tiek su jais susijusius žmogaus sprendimus [4]. Paaiškinimas turėtų būti interpretuotinas, suprantamas ir prieinamas visoms grupėms: vartotojams, diegėjams ir sprendimų paveiktiems asmenims. Paaiškinimai gali būti įvairių tipų – operaciniai, loginiai ir priežastiniai: informuojantys apie pačią sistemą, loginius ryšius tarp įvesties ir išvesties duomenų, taip pat apie priežastis ir pasekmes[5]. Bet kokia forma XAI, be kita ko, skatina žmogaus poreikiais grindžiamą požiūrį į teisingumą, kuris atitinka ES DI Akto nuostatą dėl žmogaus priežiūros ir skaidrumo.
Tai ypač svarbu teismų sistemoje, nes visi teisėjų sprendimai turi būti pagrįsti motyvuotu sprendimu. Įdomų požiūrį šiuo aspektu pateikė M. Žalnieriūtė savo tyrime, nurodydama, jog DI turėtų būti traktuojamas kaip ekspertinis liudytojas, t. y. tikimasi, kad jis pateiks įrodymus, pagrįs savo pasiūlymus ir įrodys patikimumą bei kompetenciją [6]. Be to, teigiama, kad skaidrumo stoka kenkia teismų nešališkumui, nes jei naudojama programinė įranga bus apmokyta remiantis šališkais ir diskriminaciniais duomenimis, tai atsispindės sistemoje ir galimai paveiks teisėjų sprendimu. Pasitelkiant XAI dizainą siekiama to išvengti, taikant žmogaus dalyvavimu grindžiamą sisteminį pagrindą ir papildomą sąsają, leidžiančią gauti išsamius paaiškinimus. Lygiai taip pat, kaip būtina suprasti, kaip teisėjas priėmė sprendimą, bet koks tokiame procese naudojamas DI įrankis turėtų būti lydimas jo algoritmų paaiškinimų, kad būtų patikimas ir derėtų su teisinėmis vertybėmis bei principais.
Dabartinis DI sprendimų priėmimo procese
Nepaisant akivaizdžių privalumų, XAI ir skaidrumo principai dažnai nesulaukia DI kūrėjų palaikymo. Visgi reguliavimo nebuvimas sudaro sąlygas neskaidrių sistemų, tokių kaip JAV atvejis su COMPAS sistema, atsiradimui. Tuo tarpu aiškus ir privalomas reguliavimas gali padėti įtvirtinti skaidrumo reikalavimus ir paskatinti didesnį atvirumą. Jungtinės Amerikos Valstijos, pavyzdžiui, neturi visapusiško DI reguliavimo pagrindo, todėl visuomenė patenka į rizikos lauką, nes nereguliuojamas DI naudojimas bet kurioje srityje, ypač teismų sistemoje, gali turėti reikšmingų pasekmių. Pavyzdžiui, Correctional Offender Management Profiling for Alternative Sanction (COMPAS) – tai amerikiečių sukurta recidyvo rizikos vertinimo programinė įranga, kuri, buvo plačiai kritikuojama dėl diskriminuojančių prognozių [7], dėl ko priimami prieštaringi sprendimai (pvz., State v. Loomis [8]) tačiau kai kuriose valstijose ji vis dar naudojama. Nepaisant to, kad šališkumo pobūdis buvo ginčijamas, algoritminiai procesai niekada nebuvo iki galo atskleisti, nes jie buvo saugomi kaip komercinė paslaptis.
Be abejo, tai kelia susirūpinimą dėl šių sistemų patikimumo, jei kūrėjai neatskleidžia jokios informacijos apie jų veikimą, net ir po tokios viešos kritikos. Visgi priėmus ES DI aktą, sistemoms ir jų diegėjams būtų taikoma griežtesnė priežiūra, nes šiame akte sustiprinti skaidrumo ir atskaitomybės reikalavimai didelės rizikos dirbtinio intelekto technologijų srityje. Kalbant apie komercines paslaptis, tiek DI aktas, tiek UNESCO gairės skirtingu mastu skatina informacijos, reikalingos tinkamam programinės įrangos ir jos rezultatų supratimui, prieinamumą.[9]. Siekiant, kad DI modelis būtų paaiškinamas ir prieinamas, aiškinamumas ir skaidrumas turėtų būti neatsiejamai susiję.
Priešingai, autorės žiniomis, Europoje šiuo metu nėra veikiančių DI sistemų, kurios savarankiškai priimtų teismo sprendimus ar pakeistų teisėjus teismo procese. Esamos iniciatyvos, tokios kaip Jungtinės Karalystės HMCTS skaitmeninė reforma [10], Vokietijos OLGA [11] ir Lietuvos LITEKO [12], yra orientuotos į teismų automatizavimą ir pagalbines funkcijas, o ne į teisinį argumentavimą ar sprendimų priėmimą. Tai yra paprastų automatizuotų sistemų pavyzdžiai, kurie atliepia praktinius teismų poreikius ir kartu neužkerta kelio užtikrinti teisingo proceso principus.
XAI kaip kelias į ateitį
Kadangi ES siekia tapti pasauline lydere DI srityje [13], o tokios sistemos tampa vis svarbesnės Europos teismuose [14], būtina užtikrinti, kad šios technologijos reikšmingai prisidėtų prie teismo sprendimų priėmimo ir išsaugotų jiems būdingą žmogiškumą. Šio tyrimo tikslais atlikta nedidelė Lietuvos aukščiausiųjų, administracinių ir apygardų teismų teisėjų apklausa rodo, kad DI paprastai laikomas pagalbine priemone tam tikroms užduotims atlikti, tačiau jis negali saugiai pakeisti teisėjo. Kaip teisingai pabrėžė vienas iš teisėjų, atsakingas darbas teismuose „reikalauja kruopštaus tiek teisėjo padėjėjo, tiek paties teisėjo darbo“, todėl jį būtų sudėtinga perduoti automatizuotai sistemai. Be to, labai svarbu užtikrinti, kad teisėjai, kurie vienokiu ar kitokiu būdu naudoja DI, būtų visapusiškai susipažinę su jo algoritmais ir sampratomis. Kai kurie teisėjai, nors su DI susiduria tiek darbe, tiek asmeniniame gyvenime, teigia turintys tik menką supratimą, o tai ypač reikšminga šiandien, kai DI plečia savo įtaką ir kartu tampa vis mažiau aiškiai apibrėžiamas.
Subalansuota paaiškinamumo ir skaidrumo principų integracija į DI sistemas gali reikšmingai sustiprinti teismų sistemas, lygybę ir prieinamumą. Apskritai XAI turėtų būti laikoma bet kokio būsimo DI sistemų taikymo pagrindu, grindžiamu sąžiningu ir į žmogų orientuotu požiūriu.
Straipsnį parengė Vilniaus universiteto Tarptautinių santykių ir politikos mokslų instituto studentė Anastasija Antonova, atliekanti vasaros praktiką Vilniaus universiteto Teisės fakultete. Praktiką finansuoja Lietuvos mokslo taryba, o jos vadovė – Vilniaus universiteto Teisės fakulteto doktorantė ir lektorė Goda Strikaitė-Latušinskaja.
______
[1] Europos Parlamento ir Tarybos reglamentas (ES) 2024 m. birželio 13 d. reglamentas 2024/1689 kuriuo nustatomos suderintos dirbtinio intelekto taisyklės ir iš dalies keičiami reglamentai (EB) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 ir (ES) 2019/2144 ir direktyvos 2014/90/ES, (ES) 2016/797 ir (ES) 2020/1828 (Dirbtinio intelekto aktas). [2] Europos Parlamento ir Tarybos reglamento (ES) 2024/1689 dėl dirbtinio intelekto (Dirbtinio intelekto aktas), 2024 m. birželio 13 d., 14 straipsnis – Žmogaus atliekama priežiūra. [3] UNESCO, Juan David Gutiérrez, (2024), “Document for consultation: Draft UNESCO Guidelines for the Use of AI Systems in Courts and Tribunal.” UNESDOC Digital Library, https://unesdoc.unesco.org/ark:/48223/pf0000390781.locale=en. [4] Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S., and Yang, G., (2019), “XAI—Explainable artificial intelligence,” Science Robotics, 4(37), eaay7120, 1-6. [5] Castelluccia, C., and D. Le Métaye, (2019), “Understanding algorithmic decision-making: Opportunities and challenges,” European Parliamentary Research Service (ERPS), Scientific Foresight Unit (STOA), PE 624.261, https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624261/EPRS_STU(2019)624261_EN.pdf [6] Žalnieriūtė, M., (2021), “Technology and the Courts: Artificial Intelligence and Judicial Impartiality,” Submission to Australian Law Reform Commission Review of Judicial Impartiality. 1-8, https://dx.doi.org/10.2139/ssrn.3867901. [7] Angwin, J., Larson J., Mattu S. and Kirchner L., ProPublica, (2016), “Machine Bias”, ProPublica, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. [8] Harvard Law Review, (2017), “State v. Loomis. Comment on 881 N.W.2d 749 (Wis. 2016),” Harv. L. Rev., 130(5), 1530-1537, https://harvardlawreview.org/print/vol-130/state-v-loomis/. [9] European Commission for the Efficiency of Justice (CEPEJ), “European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment,” CEPEJ, https://www.europarl.europa.eu/cmsdata/196205/COUNCIL%20OF%20EUROPE%20-%20European%20Ethical%20Charter%20on%20the%20use%20of%20AI%20in%20judicial%20systems.pdf [10] HM Courts & Tribunals Service, (2025), “Modernising courts and tribunals: benefits of digital services,” Gov.uk, https://www.gov.uk/guidance/modernising-courts-and-tribunals-benefits-of-digital-services. [11] Schindler, E., (2025), “Judicial systems are turning to AI to help manage vast quantities of data and expedite case resolution,” IBM, https://www.ibm.com/case-studies/blog/judicial-systems-are-turning-to-ai-to-help-manage-its-vast-quantities-of-data-and-expedite-case-resolution. [12] Lietuvos Teismai, (2015), „Ruošiamasi Teismų informacinės sistemos modernizacijai,“ Lietuvos Teismai, https://www.teismai.lt/lt/naujienos/teismu-sistemos-naujienos/ruosiamasi-teismu-informacines-sistemos-modernizacijai/2316. [13] Europos Komisija, (2025), “Komisija plataus užmojo DI žemyno veiksmų plane brėžia Europos lyderystės DI srityje kryptį,” Europos Komisija, Pranešimas Spaudai. https://ec.europa.eu/commission/presscorner/detail/lt/ip_25_1013. [14] European Commission for the Efficiency of Justice (CEPEJ), (2025), “1st AIAB Report on the Use of Artificial Intelligence (AI) in the Judiciary based on the Information Contained in the Resource Centre on Cyberjustice And AI,” CEPEJ-AIAB(2024)4Rev5, https://rm.coe.int/cepej-aiab-2024-4rev5-en-first-aiab-report-2788-0938-9324-v-1/1680b49def.




