Ar galime patikėti teisingumo svarstykles robotams?

Teisingumo srityje vis daugiau svarstymų apie dirbtinio intelekto panaudojimą. Nenuostabu, kad kyla labai reikšmingų klausimų apie ateitį, ar kada nors dirbtinio intelekto teisėjas galėtų pakeisti teisėją žmogų? Kalbamės su vienomis žymiausių dirbtinio intelekto etikos ir reguliavimo ekspertėmis Lenkijos Ščecino universiteto mokslininkėmis – profesore habilituota mokslų daktare Kinga Flaga-Gieruszyńska ir mokslų daktare Aleksandra Klich.
Mokslininkės šių metų lapkričio 16 dieną Vilniaus universiteto Teisės fakulteto organizuotoje tarptautinėje konferencijoje skaitė pranešimą tema „Žmonės teisėjai ir dirbtinio intelekto teisėjai: kokia teisingumo ateitis?“. Mokslininkės šiame interviu pasidalijo savo įžvalgomis apie dirbtinį intelektą teisingumo srityje.
– Gerb. Aleksandra, Jūsų pranešime buvo lyginami teisėjai-žmonės ir dirbtinio intelekto teisėjai. Kodėl pasirinkote šią temą ir su kokiais pagrindiniais klausimais susiduriama?
– Dirbtinio intelekto teisėjų idėja yra labai įdomi mokslinių nagrinėjimų kontekste tuo, kad ji meta iššūkį mūsų pagrindinėms teisingumo ir sąžiningumo sampratoms. Tobulėjant dirbtinio intelekto sistemoms, vis labiau domimasi jų galimybėmis padėti žmonėms teisėjams ar net pakeisti juos tam tikrose situacijose. Pagrindiniai klausimai sukasi apie pasitikėjimą, atskaitomybę ir etines teisingumo įgyvendinimo perdavimo mašinoms pasekmes. Ar dirbtinis intelektas galėtų pasiūlyti nešališkus ir teisingus sprendimus? O gal kyla pavojus, kad jis bylose neatskleis supratimo niuansų, kuriuos turi žmonės teisėjai? Tai labai svarbūs klausimai, kuriuos reikia rimtai aptarti, kai dirbtinis intelektas įtraukiamas į teisingumo įgyvendinimą.
– Kokių privalumų teisingumo sistemai galėtų suteikti dirbtinio intelekto teisėjai?
– Dirbtinio intelekto teisėjai galėtų padaryti proveržį efektyvumo požiūriu. Jie gali greitai apdoroti didelius informacijos kiekius, atlikti pasikartojančias užduotis, pavyzdžiui, rūšiuoti bylas, ir vienodai taikyti teisinius precedentus, nesivadovaudami emocijomis ar asmeniniu šališkumu, galų gale, nuovargis neturėtų įtakos jų produktyvumui. Bylose, kurios yra santykinai paprastesnės, pavyzdžiui, ieškiniai dėl nedidelių sumų ar kelių eismo taisyklių pažeidimų, dirbtinio intelekto sistemos galėtų padidinti efektyvumą automatizuotu būdu nagrinėjant bylas ir užtikrinti greitesnį sprendimų priėmimą. Be to, dirbtinis intelektas teisines sistemas gali padaryti prieinamesnes žmonėms, kurie dėl finansinių kliūčių neturi galimybės gauti teisinės pagalbos ar užsitikrinti savo teisių gynybos teisme.
– Nepaisant Jūsų minėtų privalumų, daugelis žmonių išlieka skeptiški. Kokie yra dirbtinio intelekto teisėjų naudojimo apribojimai ar rizika?
– Apribojimų yra nemažai. Dirbtinio intelekto sistemos nemąsto, todėl negeba visiškai įvertinti konteksto, tai išimtinai siejama su žmonių mąstymo veikla. Šios sistemos remiasi duomenimis ir algoritmais, o jie gali būti šališki arba neišsamūs, todėl gali įtvirtinti diskriminaciją. Taip pat trūksta skaidrumo – vis dar nėra tiksliai paaiškinama, kaip dirbtinis intelektas priima sprendimą, todėl kyla klausimas, ar galima pasitikėti roboto priimtu sprendimu? Galiausiai teisingumo delegavimas robotams kelia filosofinių klausimų, ką iš tiesų reiškia teisingumas, ar jis kada nors gali būti visiškai automatizuotas?
– Kaip ateityje įsivaizduojate žmonių teisėjų ir dirbtinio intelekto santykį teisingumo srityje?
– Manau, ateitis bus susijusi su bendradarbiavimu, o ne pakeitimu. Dirbtinis intelektas gali būti galingas įrankis, padedantis teisėjams žmonėms, teikiantis duomenų analizę, teisinius tyrimus ar įžvalgas apie teisės aktų taikymą ir precedentus. Vis dėlto, galutiniai sprendimai turėtų būti palikti žmogaus kompetencijai, ypač tais atvejais, kai sprendžiamos sudėtingos ar morališkai jautrios bylos. Toks mišrus požiūris suteikia galimybę pasinaudoti dirbtinio intelekto pranašumais, tuo pačiu išlaikant teisingumo įgyvendinimo kontrolę žmogaus rankose.
– Gerb. profesore Kinga, daug susirūpinimo kelia dirbtinio intelekto šališkumas. Kaip galime užtikrinti teisingumą, jeigu šiame procese pradėtų dalyvauti ir dirbtinis intelektas?
– Teisingumo užtikrinimas prasideda nuo duomenų. Siekiant sumažinti šališkumą, dirbtinio intelekto sistemos turi būti apmokytos naudojant tik patikimus ir teisėtai surinktų duomenų rinkinius. Reguliarus auditas ir nepriklausoma algoritmų peržiūra yra būtini elementai, siekiant išvengti šališkumo. Skaidrumas taip pat labai svarbus – žmonės turi suprasti, kaip veikia dirbtinio intelekto sistemos, taip pat turėtų būti mechanizmai, leidžiantys apskųsti dirbtinio intelekto lemtus rezultatus. Galiausiai, į dirbtinio intelekto sistemų kūrimą reikia įtraukti daugiadisciplinines komandas, įskaitant etikos ir teisės ekspertus. Šališkumo problemą galima spręsti iš įvairių perspektyvų.
– Kokį vaidmenį, Jūsų nuomone, vaidina visuomenės pasitikėjimas diegiant dirbtinį intelektą teisingumo sistemoje?
– Visuomenės pasitikėjimas yra labai svarbus. Kad ir kokia pažangi būtų technologija, žmonės nepriims dirbtinio intelekto į teisingumo sistemą, jei netikės, kad jis bus sąžiningas ir skaidrus. Pasitikėjimui sukurti pirmiausia reikia aiškiai informuoti apie tai, ką dirbtinis intelektas gali ir ko negali daryti, taip pat sukurti patikimus priežiūros mechanizmus, kad būtų užtikrinta atskaitomybė. Siekiant visuomenės pritarimo, labai svarbu įrodyti, kad dirbtinis intelektas stiprina teisingumo principus, o ne jiems kenkia ar siekia juos paminti.
– Kai kurie kritikai teigia, jog dirbtinio intelekto naudojimas teismuose gali kelti grėsmę teisės į teisingą teismą užtikrinimui, nes sprendimų pagrįstumas ir proceso skaidrumas gali būti apsunkinti dėl dirbtinio intelekto algoritmų sudėtingumo ir neaiškumo. Kaip vertinate šią nuomonę?
– Tai viena iš pagrindinių priežasčių, kodėl daugelyje diskusijų akcentuojama dirbtinio intelekto ir žmogaus partnerystė, o ne visiškas žmogaus pakeitimas technologijomis. Teisingumo principai apima ne tik taisyklių taikymą ir rezultatų užtikrinimą, bet ir esminį žmogaus poreikį būti išklausytam ir suprastam. Dirbtinis intelektas turėtų būti suvokiamas kaip pagalbinis įrankis, skirtas remti teisėjų darbą, o ne užimti jų vietą. Išlaikydami žmones sprendimų priėmimo centre, galime užtikrinti, kad sprendimų pagrįstumas ir proceso skaidrumas išliktų neatsiejama teisingumo proceso dalimi.
Interviu su mokslininkėmis vykdė Vilniaus universiteto Teisės fakulteto asistentė Neringa Gaubienė, įgyvendindama projektą, kuriam finansavimą skyrė Lietuvos mokslo taryba pagal Mokslo renginių finansavimo programą.