D. Rimkutė. Dirbtinis intelektas ir civilinė atsakomybė

Ar egzistuojantis civilinės atsakomybės reguliavimas būtų pakankamas atlyginant dirbtinio intelekto sukeltą žalą, jei žala kiltų šiandien, Lietuvos jurisdikcijoje?
Šiandien, nuvykę į Finiksą (JAV), jau galėtumėte pasinaudoti Waymo savivaldžio automobilio be vairuotojo taksi paslauga. Patiriantiems emocinių sunkumų, Emotech startuolis siūlo įsigyti psichologine savijauta besirūpinančių robotų. Valstybės kare seniai naudoja savivaldžius dronus. Dirbtinis intelektas pritaikomas beveik visose srityse, tikėtinai nejučia esate jų naudotojai ir dabar, naudodamiesi svetainėmis ar aplikacijomis, apdorojančiomis jūsų duomenis.
Antra vertus, nepriklausomai nuo dirbtinio intelekto naudos, šios sistemos, ypač, kaip kad minėti, savivaldžiai automobiliai ar dronai, gali sukelti ir didelę žalą. Mokslinėse ir politinėse diskusijose klausiama, kas už šią žalą turėtų atsakyti? Keliami ir kiti ne mažiau aktualūs klausimai, susiję su civilinės atsakomybės režimo pasirinkimu, gamintojo atsakomybe ar didesnio pavojaus šaltinio valdytojo atsakomybės reguliavimu. Tuo tarpu problemų sprendiniuose paprastai iškeliamos įvairios reglamentavimo idėjos. Pavyzdžiui, ES dokumentuose, mokslininkų Andrea Bertolini[1] ir Francesco Paolo Patti[2] straipsniuose ir kitose studijose siūloma kurti specializuotą teisėkūrą ar pildyti esamus teisės aktus.
Tačiau šiame straipsnyje pateikiamas rečiau sutinkamas kritiškas požiūris į specializuoto reglamentavimo kūrimą, manant, kad teisinė sistema gali reaguoti į istorijoje ne kartą įvykusį, o dirbtinio intelekto atsiradimo kontekste naujų spalvų įgavusį, teisės ir technologijų konfliktą. Todėl šiandien kilus dirbtinio intelekto žalai, civilinę atsakomybę pritaikyti būtų įmanoma. Kitaip tariant, teisė ne kartą prisitaikė, tad ir šįkart prisitaikys prie naujų socialinių pokyčių. Teisė ir technologijos vystosi kartu.
Siekiant atsakyti į klausimą, ar dabartinis reguliavimas būtų pakankamas dirbtinio intelekto sistemos šiandien sukeltos žalos atlyginimui, bus aptariama dirbtinio intelekto samprata, taip pat problemiškiausi didesnio pavojaus šaltinio valdytojo ir gamintojo atsakomybės klausimai, vertinant nacionalinį reglamentavimą.
Kuo dirbtinis intelektas skiriasi nuo kitų labiau pažengusių technologijų?
Priešingai nei kitos technologijos, dirbtinio intelekto sistemų sprendimų priėmimo mechanizmas turi autonomiškumo bruožų.
Dirbtinio intelekto autonomiškumą lemia žmogaus intelektą imituojantis sprendimų priėmimo mechanizmas, 1) renkant duomenis, 2) juos analizuojant, 3) darant išvadas. Mašininiu mokymu grindžiamos sistemos turi mažiau duomenis analizuojančių sluoksnių, todėl reikalauja didesnės žmogaus priežiūros. Pažangesniu – giliojo mokymosi – pagrindu veikiančios sistemos turi daugiau duomenis analizuojančių sluoksnių, gali prieiti prie savarankiškesnių išvadų ir, atitinkamai, reikalauja mažesnio žmogaus įsikišimo[3]. Pavyzdžiui, jau šiandien savivaldžiai automobiliai, kaip kad Waymo, gali veikti savarankiškai, nors ir ne visur, o tik apibrėžtoje Finikso teritorijoje[4].
Aptartas sprendimų priėmimo mechanizmas gali būti iliustruojamas juodosios dėžės metafora. Nors dirbtinio intelekto veikimas yra grindžiamas iš anksto kūrėjo apibrėžtomis instrukcijomis, bet jomis neapsiriboja, gali jas modifikuoti. Būtent ši išvada mokslininkus ir sprendimų priėmėjus įprastai verčia grįžti prie civilinės atsakomybės reformavimo tezių.
Kas turėtų būti laikomas atsakingu už dirbtinio intelekto sukeltą žalą?
Šiuo metu tėra išrastas dirbtinis silpnas intelektas, gebantis veikti vienoje funkcinėje srityje, pvz., šachmatų algoritmas ar balsą atpažįstantis asmeninis asistentas. Tačiau dirbtinis stiprus intelektas, neapsiribojantis viena veiklos sritimi ir prilygstantis žmogaus intelektui, išrastas nėra. Iš dalies todėl dirbtinio intelekto subjektiškumo idėja, kuri ES buvo iškelta dar 2017 m. vasario 16 d. Europos Parlamento rezoliucijoje[5], kituose Europos Sąjungos politikos dokumentuose atmetama. Atitinkamai, dirbtinio intelekto sistema negali būti atsakinga už savo klaidas, nepriklausomai nuo to, kad gali veikti iš dalies savarankiškai.
Tuomet kyla klausimas, kas tuomet – ir kokioms sąlygoms esant – turėtų prisiimti atsakomybę kilus žalai. Pirma, svarstytina, kokios civilinės atsakomybės nuostatos turėtų būti taikomos – bendri deliktinės atsakomybės pagrindai (su preziumuojama kalte), ar nukentėjusiojo padėtį palengvinanti griežta atsakomybė (be kaltės), taikoma netinkamos kokybės produkto arba didesnio pavojaus šaltinio sukeltos žalos atveju. Antra, taikant didesnio pavojaus šaltinio valdytojo atsakomybę, gali kilti klausimas, kas turėtų būti laikomas valdytoju. Trečia, kilus žalai dėl programinės įrangos defektų, gali kilti klausimas, ar šios aplinkybės pakanka gamintojo atsakomybei kilti?
Atsakymas į pirmąjį, civilinės atsakomybės režimo pasirinkimo klausimą, priklauso nuo kitų dviejų. Bendri deliktinės atsakomybės pagrindai yra pagrindinė taisyklė, taikoma nenustačius šios taisyklės išimties – griežtosios didesnio pavojaus šaltinio valdytojo ar gamintojo atsakomybės. Šios bendros taisyklės išimtys taip pat susijusios su pavojingiausiomis, potencialiai daugiausiai žalos galinčiomis sukelti sistemomis bei pažeidžiamiausios vartotojų grupės apsauga. Todėl straipsnyje sulauks daugiausiai dėmesio.
Kas yra dirbtinio intelekto kaip didesnio pavojaus šaltinio valdytojas?
Lietuvoje, kaip ir daugelyje kitų ES valstybių, didesnio pavojaus šaltinio sąvoka teismų praktikoje[6], kaip ir klasikinėje rizikos teorijoje[7], siejama su 1) itin didele žalos atsiradimo rizika ir 2) negalėjimu šios rizikos pašalinti atsargumo priemonėmis. Dirbtinio intelekto sistemos veikia neapsiribodamos kūrėjo apibrėžtomis instrukcijomis, todėl, net ir elgiantis maksimaliai rūpestingai, neįmanoma visų kylančių rizikų pašalinti (antra sąlyga). Tačiau ne kiekviena dirbtinio intelekto sistema kelia didesnį pavojų dėl galimai kilsiančių neigiamų padarinių (pirma sąlyga). Pavyzdžiui, savivaldis automobilis, karo ginklai, programinė įranga, veikianti su cheminėmis medžiagomis, gali sukelti daugiau žalos nei užklausa apie orus Apple Siri asistentui. Bet kuriuo atveju, didesnio pavojaus šaltinio sąvoka taikoma individualiai kiekvienu atveju atskirai.
Didesnio pavojaus šaltinio valdytoju laikomas asmuo, teisėtai valdantis didesnio pavojaus šaltinį. Tačiau teismų praktikoje[8] valdytojo sąvoka reiškia ne tik teisėtą valdymą, t.y. teisę daryti poveikį, bet ir naudojimą, tiksliau, naudos iš šio objekto ar veiklos gavimą. Būtent dėl gaunamos naudos, valdytojas, net ir suprasdamas galimą riziką, vis vien pasirenka per se rizikingą veikimo būdą. Atitinkamai, savivaldžio automobilio savininkas, norėdamas pasiekti tašką A, būtų didesnio pavojaus šaltinio valdytojas, bet ne programuotojas. Aptartas reguliavimas taip pat atitinka klasikinę rizikos teoriją.
Kas turėtų būti dirbtinio intelekto kaip didesnio pavojaus šaltinio valdytojas?
Antra vertus, aptartas, klasikinę rizikos teoriją atitinkantis, valdytojo sąvokos aiškinimas, apsiribojantis teisėtu valdymu ir didesnio pavojaus šaltinio naudojimu, ne visai atspindi naują rizikos valdymo požiūrio teoriją, kuri dominuoja Europos Sąjungos politikos dokumentuose[9]. Klasikinė rizikos teorija geriau paaiškina patį griežtos atsakomybės principą bei didesnio pavojaus šaltinio sąvoką, tačiau neįvertina aplinkybės, kad dirbtinio intelekto sistemų kontrolę prisiima ir asmenys, kontroliuojantys techninius dirbtinio intelekto sistemos sprendimus.
Nauja rizikos valdymo požiūrio teorija siūlo atsakomybę taikyti dirbtinio intelekto operatoriui, kuris gali geriau riziką identifikuoti, kontroliuoti, minimizuoti, valdyti. A. Bertolini teigimu[10], teisinės atsakomybės taisyklės ne visada skatina elgtis pageidaujamai iš anksto, todėl sistema, orientuota į geriausiai riziką suvaldyti galinčius subjektus, formuotų pageidaujamą elgesį efektyviau. Pastebėtina, kad subjektai, kurie riziką kontroliuoti gali geriausiai, taip pat paprastai gauna daugiausiai naudos, todėl yra geresnėje padėtyje kilusią žalą atlyginti.
Vidinis ir išorinis sistemos operatoriai
2020 m. spalio 20 d. priimtoje Europos Parlamento rezoliucijoje[11] siūloma išskirti dvi operatoriaus (alt. vertimas – valdytojas) kategorijas: išorinį ir vidinį.
Išorinis sistemos operatorius – asmuo, kuris tam tikru mastu kontroliuoja riziką, susijusią su dirbtinio intelekto sistemos naudojimu ir veikimu ir gauna naudos iš jos veikimo, pavyzdžiui, vartotojas, verslas. Išorinis sistemos operatorius, valdantis didesnio pavojaus šaltinį, sutaptų su aptartu, civiliniame kodekse įtvirtintu, didesnio pavojaus šaltinio valdytoju.
Vidiniu sistemos operatoriumi būtų laikomas asmuo, kuris nuolatos priima sprendimus dėl technologijos savybių, teikia duomenis ir atsako už svarbiausias vidinės sistemos techninio aptarnavimo funkcijas, o todėl taip pat tikru mastu kontroliuoja riziką, susijusią su dirbtinio intelekto sistemos eksploatavimu ir veikimu. Į vidinio operatoriaus kategoriją, Orian Dheu teigimu[12], potencialiai patektų gamintojai, teikiantys nuolatinius programinės įrangos atnaujinimus, pagalbinių paslaugų teikėjai. Vidinis sistemos operatorius, pagal šiandieninį Lietuvos reglamentavimą, neatitinka teismuose įtvirtintos didesnio pavojaus šaltinio valdytojo sampratos, todėl tikėtinai šiam subjektui būtų taikomos kitos deliktinės atsakomybės nuostatos.
Antra vertus, atmetus nusistovėjusią teismų praktiką, pažodinis, CK 6.270 straipsnio 2 dalyje, įtvirtintas didesnio pavojaus šaltinio valdytojo sąvokos aiškinimas palieka vietos ir platesnei valdytojo interpretacijai. Remiantis rizikos valdymo požiūrio teorija, vidinis sistemos operatorius, pvz., programinės įrangos prižiūrėtojas, galėtų būti laikomas dirbtinio intelekto sistemos valdytoju, sistemą valdančiu techninio veikimo apimtimi. Tuo tarpu išorinis operatorius būtų atsakingas už kitus, su techniniu aptarnavimu tiesiogiai nesusijusius neteisėtus veiksmus, pavyzdžiui., pareigos atlikti techninę apžiūrą, pakeisti savivaldžio automobilio padangas į žiemines – nevykdymą. Pripažinus tiek išorinio, tiek vidinio operatorių neteisėtus veiksmus – turėtų būti taikoma solidari atsakomybė. Tokiu būdu atsakomybė būtų paskirstoma atsižvelgiant į rizikos kilmės šaltinį, neteisėtų veiksmų laipsnį, kuris lėmė kilusią žalą.
Dirbtinio intelekto gamintojo atsakomybė už netinkamos kokybės produktą
Jeigu dirbtinio intelekto sistemos žala būtų sukelta dėl netinkamos kokybės, už tokius neteisėtus veiksmus, sukeltus vartotojui, atsakytų gamintojas[13].
Netinkama kokybė yra abstrakti norma, doktrinoje skirstoma į trijų rūšių 1) gamybos, 2) informavimo ir 3) projektavimo defektus. Priklausomai nuo defektų rūšies, netinkamos kokybės norma gali būti labiau apibrėžta, kaip gamybos ar informavimo defektų atveju. Mat vertinant gamybos defektus būtų atsispiriama nuo gamintojo iš anksto nustatytų techninių sąlygų, kurių gaminys praktikoje neatitiko. Tuo tarpu informavimo defektų atveju – analizuojama, ar informacija apie rizikas buvo (tinkamai) pateikta. Tad gamybos ar informavimo defektams didesnės įtakos dirbtinio intelekto specifika nepadarytų ir jų vertinimas pernelyg nesiskirtų nuo labiau sofistikuotų technologijų. Tačiau projektavimo defektų grupė labiausiai neapibrėžta ir kelia daugiausiai praktinių problemų.
Dirbtinio intelekto projektavimo defektai
Pagal doktriną, projektavimo defektas – trūkumas, atsirandantis, kai produktas atitinka jam keliamus techninius reikalavimus, bet patys reikalavimai kelia nepagrįstą riziką vartotojams ar jų turtui[14]. Šie defektai atsiranda dar produkto kūrimo procese, sužinomi retrospektyviai. Šiame straipsnyje laikomasi pozicijos, kad paties dirbtinio intelekto sistemos žalos sukėlimo faktas turėtų būti pakankamas pagrindas pripažinti, kad gaminys yra netinkamos kokybės, nepriklausomai nuo to, ar dirbtinio intelekto sistema turi gebėjimą mokytis ir galbūt net nutolsta nuo pradinės gamintojo projekcijos.
Remiantis Lietuvos ir ES teisės aktais, gamintojo atsakomybė, kylanti dėl projektavimo defektų, yra objektyvi (be kaltės). Vertinant gamintojo atsakomybę atsižvelgiama ne į gamintojo pastangas sukurti saugų projektą, bet esamą mokslo žinių lygį. Todėl gamintojo atsakomybę už projektavimo defektą šalinti galėtų tik aplinkybės nustatymas, kad 1) mokslo ir techninių žinių lygis 2) produkto išleidimo į apyvartą metu nebuvo leidžiantis sukurti saugesnį produktą.
Ką reiškia dirbtinio intelekto išleidimas į apyvartą ir mokslo ir technikos žinių būklė?
Remiantis ESTT praktika[15], išleidimas į apyvartą, plačiąja prasme, yra momentas, kai gamintojas nebekontroliuoja produkto, nes gamyba yra pasibaigusi, o produktas perduodamas prekybos grandinei. Tačiau dirbtinio intelekto programinės įrangos kontrolė tikėtinai išliks gamintojo „rankose“; gamintojas ją atnaujins, taisys klaidas, nors gamyba bus pasibaigusi ir produktas bus perduotas. Todėl išleidimo į apyvartą momentas programinės įrangos defektams turėtų būti taikomas nuo programinės įrangos atnaujinimo, o ne nuo pardavimo momento. Tik toks aiškinimas atitiktų gamintojo atsakomybės instituto pagrindinį tikslą – vartotojų apsaugą. Tačiau, jei defektas būtų atrastas po išleidimo, į rinką būtų paleistas geresnės kokybės produktas, gamintojui atsakomybė nekiltų.
Mokslo ir technikos žinių būklės testas turėtų būti atliekamas atsispiriant nuo išleidimo į apyvartą laiko. Pagal ESTT praktiką[16], nustatant šį lygį turi būti remiamasi aukščiausiu ir objektyviu žinių lygiu, be sektorių apribojimų, tačiau atsižvelgiama į žinių prieinamumo aspektą.
Išvados ir pasiūlymai
Jei šiandien dirbtinio intelekto sistemos sukeltų žalą, civilinės atsakomybės reguliavimas būtų pakankamas, siekiant nustatyti žalą atlyginti turinčius asmenis, tačiau reikalautų papildomo aktualių teisės normų išaiškinimo.
Pagal bendrą taisyklę, už dirbtinio intelekto sukeltą žalą būtų taikomi bendri deliktinės atsakomybės pagrindai, nebent būtų nustatyta didesnio pavojaus šaltinio valdytojo ar netinkamos kokybės produkto gamintojo atsakomybė.
Didesnio pavojaus šaltinio (dirbtinio intelekto) valdytoju šiandien būtų laikomas išorinis sistemos operatorius (naudos gavėjas), kuris teisėtai valdo ir gauna naudą iš dirbtinio intelekto sistemos naudojimo. Vidinis sistemos operatorius, kontroliuojantis techninę dirbtinio intelekto sistemos pusę, atsakytų kitais civilinės atsakomybės pagrindais, nebent didesnio pavojaus šaltinio valdytojo sąvoka teismuose būtų praplėsta, apimtų ir vidinį sistemos operatorių.
Gamintojo atsakomybės atveju, pats dirbtinio intelekto sistemos žalos sukėlimo faktas turėtų būti pakankamas pagrindas pripažinti, kad gaminys yra netinkamos kokybės. Nebent būtų nustatyta, kad išleidimo į apyvarta metu saugesnis produktas dėl mokslo ir technikos žinių lygio negalėjo būti išrastas. Išleidimo į apyvartą momentas turėtų būti siejamas su programinės įrangos atnaujinimu.
Deimantė Rimkutė – Lietuvos teisės instituto jaunesnioji specialistė, Vilniaus miesto tarybos narė, Advokatų profesinės bendrijos „WALLESS“ teisininkų asistentė. Straipsnis parengtas pagal projektą finansuojamą iš Europos socialinio fondo lėšų pagal priemonės Nr. 09.33.3-LMT-K-712 veiklos „Studentų gebėjimų vykdyti MTEP veiklą ugdymas“ poveiklę „Studentų gebėjimų ugdymas vykdant mokslo (meno) tyrimus semestrų metu“.
[1] Bertolini, A. (2020). Artificial Intelligence and Civil Liability, [interaktyvus], Policy Department for Citizens’ Rights and Constitutional Affairs Directorate–General for Internal Policies. Prieiga per internetą <https://www.europarl.europa.eu/RegData/etudes/STUD/2020/621926/IPOL_STU(2020)621926_EN.pdf [žiūrėta 2020 m. vasario 20 d.].
[2] Patti, F. P. (2019). Autonomous Vehicles‘ Liability: Need for Change? Iš: De Franceschi, A., Schulze, R. (sud) (2019). Digital Revolution – New Challanges for Law. Miunchenas: Kösel GmbH & Co. KG.
[3] IBM.com. Artificial Intelligence (AI) [interaktyvus] (modifikuota 2020 m. birželio 3 d.). Prieiga per internetą <https://www.ibm.com/cloud/learn/what-is-artificial-intelligence> [žiūrėta 2020 m. kovo 20 d.].
[4] Theverge.com. Waymo is first to put fully self–driving cars on US roads without a safety driver [interaktyvus] (modifikuota 2017 m. lapkričio 7 d.). Prieiga per internetą: https://www.theverge.com/2017/11/7/16615290/waymo–self–driving–safety–driver–chandler–autonomous/ [žiūrėta 2021 m. kovo 2 d.].
[5] Europos Parlamento rezoliucija su rekomendacijomis Komisijai 2017 m. vasario 16 d. (2015/2103(INL)) dėl robotikai taikomų civilinės teisės nuostatų. OJ C, 252, p.239.
[6] pvz., Lietuvos Aukščiausiojo Teismo 2011 m. lapkričio 18 d. nutartis civilinėje byloje
[7] Mikelėnas, V. (1995). Civilinės atsakomybės problemos: lyginamieji aspektai. Vilnius: Justitia.
[8] pvz., Lietuvos Aukščiausiojo Teismo 2000 m. kovo 9 d. nutartis civilinėje byloje. CK 6.270 str. 2 d. apibrėžiamas valdymas turi kitokią prasmę negu daiktinio pobūdžio savininko valdymo teisė. Tradicinio automobilio valdytojo statusas reiškia „teisėtu pagrindu faktiškai turinčio asmens teisę automobilį tvarkyti, vairuoti ar juo naudotis, taip pat pareigą atsakyti už žalą“. Todėl valdytojo sąvoka apima tiek daiktinės teisės valdymo (teisiškai turėti daiktą savo žinioje, daryti jam fizinį ar ūkinį poveikį), tiek daiktinės teisės naudojimo (gauti iš jo naudos, pvz. panaudoti automobilį kaip susisiekimo priemonę) kategorijas.
[9] Bertolini, A. (2020). Artificial Intelligence and Civil Liability, [interaktyvus], Policy Department for Citizens’ Rights and Constitutional Affairs Directorate–General for Internal Policies, Prieiga per internetą <https://www.europarl.europa.eu/RegData/etudes/STUD/2020/621926/IPOL_STU(2020)621926_EN.pdf [žiūrėta 2020 m. vasario 20 d.]. p. 91-101.
[10] ibid.
[11] 2020 m. spalio 20 d. Europos Parlamento rezoliucija su rekomendacijomis Komisijai dėl naudojant dirbtinį intelektą taikomos civilinės atsakomybės tvarkos (2020/2014(INL))
[12] law.kuleuven.be. EU report on AI, new technologies and liability : key take-aways and limitations . [interaktyvus] (modifikuota 2020 m. sausio 9 d.) Prieiga per internetą: <https://www.law.kuleuven.be/citip/blog/eu-report-on-ai-new-technologies-and-liability-key-take-aways-and-limitations/> [žiūrėta 2021 m. gegužės 5 d.].
[13] Gamintojo civilinės atsakomybės už netinkamos kokybės produktus reglamentavimas yra dvilypis. Viena vertus, nemažai nuostatų įtvirtina ES: atsakomybę už netinkamos kokybės produktais padarytą žalą reglamentuoja 1985 m. liepos 25 d. Europos Bendrijų Tarybos direktyva 85/374/EEB, taip pat Europos Parlamento ir Tarybos direktyva 2001/95/EB dėl bendros gaminių saugos. Antra vertus, direktyvose nustatytas reglamentavimas perkeltas ir iš dalies papildytas nacionalinėje teisėje. Gamintojo atsakomybę Lietuvoje reglamentuoja CK 6.292-6.230 str., LR produktų saugos įstatymas.
[14] HODGES, C J. S. (1993). Product Liability: European Laws and Practise. London: Sweet & Maxwell. p. 99
[15] Pvz., Europos Teisingumo Teismo 2006 m. vasario 9 d. sprendimas byloje
[16] Pvz., Europos Teisingumo Teismo 1997 m. gegužės 29 d. sprendimas byloje