G. Strikaitė-Latušinskaja. „Europietiškas“ dirbtinis intelektas – koks jis?
Kodėl šiandien kaskart kai kalbame apie dirbtinį intelektą, turime kalbėti apie teisę? Priežasčių yra daugybė. Šio komentaro rėmuose išskirkime tris.
Pirmiausia, svarstant apie dirbtinio intelekto pritaikymo galimybes, svarbu turėti omenyje, jog pagal dabartinį technologijų išsivystymo lygį egzistuoja rizika, jog tų, kurie kuria programas sugebėjimai techniniu požiūriu, akiratis, pageidavimai, interesai, šališkumas atsispindės kuriamose programose. Žinoma, tam tikru mastu tai tiesiog neišvengiama, tačiau ši problema, manytina, itin gaji būtent dirbtinio intelekto kontekste, kadangi, kaip žinia, dirbtinio intelekto įrankiai gali būti itin galingi, o ir jo panaudojimo sritys nuolat plečiamos. Sutikime, vienokia situacija, kai vienas policijos pareigūnas skirtingai traktuoja įtariamuosius dėl, tarkime, etninės priklausomybės, tačiau susidurtume su visai kitokio mąsto situacija, jei policija kaip teisėtvarkos institucija pradėtų naudoti kokią nors dirbtinio intelekto įrangą, kuri sistemingai skirtingai traktuoja įtariamuosius pagal jų etninę priklausomybę. Teisiniu požiūriu tai reiškia, jog svarbu yra įvertinti dirbtinio intelekto programų galimą paklaidą/nuokrypį, pavyzdžiui, aptartu atveju dėl diskriminacinio potencialo.
Antra, itin svarbus aspektas teisiniu požiūriu yra atsakomybė – kai žmogus padaro klaidą, lengva pasakyti, kad jis ir turi atsakyti už tą klaidą. Kai kalbame apie dirbtinio intelekto prietaikas, situacija kol kas visai kitokia – dažnu atveju nebūtų taip lengva atsakyti į klausimą, kas turėtų būti atsakingas vienu ar kitu atveju. Situacijos nepalengvina ir tai, jog ne visada įmanoma numatyti, kaip veiks programa, taip pat ne visada įmanoma paaiškinti, kokios aplinkybės lėmė tam tikrą išvadą – egzistuoja vadinamoji juodosios dėžės (angl. black box) problema. Stuart Russell ir Peter Norvig knygoje „Artificial Intelligence – A Modern Approach“ pateikia tokį šmaikštų pavyzdį: tarkime, norėtume pasiūlyti funkciją, skirtą sumažinti žmonių kančias. Visgi atsižvelgiant į tai, kokie mes, žmonės, esame, mes visuomet rasime būdą, kaip kentėti – netgi rojuje nebūsime laimingi. Taigi, tikėtina, jog optimalus dirbtinio intelekto sistemos sprendimas tokiu atveju būtų kuo greičiau paprasčiausiai išnaikinti žmonių rasę – nes juk jei nebūtų žmonių, nebebūtų ir kančių. Reziumuojant, teisiniu požiūriu svarbu užtikrinti dirbtinio intelekto kūrėjo – žmogiškojo faktoriaus (techninių ir ne tik techninių žinių kokybės ir kiekybės išraiškas), techninio sprendimo (dirbtinio intelekto veikimą, ribas) koreliaciją ir neatsiejamą veiksnį – atsakomybę – t .y. visų trijų išvardytų elementų sintezę.
Paskutinis paminėtinas aspektas yra susijęs su tuo, kam ir kokiais tikslais yra ir/ar bus naudojama konkreti dirbtinio intelekto programa. Juk pats savaime dirbtinis intelektas nėra nei geras nei blogas – viskas priklauso nuo to, kada, kam ir kaip jis yra naudojamas. Pavyzdžiui, dirbtinio intelekto prietaikos gali būti naudojamos žmonėms valdyti, tačiau jos taip pat gali būti naudojamos didinti žmonių mobilumą, tarkime, autonominių automobilių pagalba. Tai yra labai svarbus teisinis klausimas, kadangi jis nulemia, ar dirbtinio intelekto programos turi būti traktuojamos kaip bet koks kitas techninis išradimas, pavyzdžiui, telefonas ar laikrodis, ar jas reikėtų traktuoti daug atsakingiau, atsižvelgiant į galimas pasekmes ir rizikas naudojant tokias prietaikas.
Tai yra tik keli pagrindiniai aspektai, kurie turėtų būti apsvarstyti, kai kalbame apie platesnį dirbtinio intelekto, kuris yra laikomas kone daugiausia potencialo šiuo metu turinčia technologija, panaudojimą. Sutikime, kelia nerimą, abejones technologijos, kurių sukūrimas nulemtas kūrėjo – žmogaus subjektyviųjų savybių, veikimo ribų plėtra tinkamai nekontroliuojama, o pats veikimas neišvengimas be techninių klaidų, paklaidų, o svarbiausia, gali būti neįmanoma nustatyti kokios aplinkybės lėmė vienokį ar kitokį sprendimą. Įžvelgtina, kad dirbtinio intelekto naudojimo plėtra ženkliai lenkia dirbtinio intelekto naudojimo, poveikio, atsakomybės teisinį reguliavimą. Ar nacionalinis ar tarptautinis reglamentavimas sugebės pavyti sparčiai judantį dirbtinio intelekto traukinį?
2014 m. Elonas Muskas per vieną interviu pasakė: „Manau, kad turėtume būti labai atsargūs dėl dirbtinio intelekto. Jei turėčiau atspėti, kokia yra didžiausia grėsmė mūsų egzistencijai, tikriausiai tai yra būtent tai. Vis labiau linkstu manyti, kad turėtų būti sukurtas tam tikras reguliavimas, galbūt nacionaliniu, o galbūt ir tarptautiniu lygmeniu, kol nepadarėme kažko labai kvailo.“ Tinkamai sureglamentuoti dirbtinio intelekto panaudojimą – užduotis nelengva. Įprastai iš patirties žinome, jog kai kalbame apie bet kokį reglamentavimą, susiduriame su rizika nepakankamai sureguliuoti teisinę sistemą ar ją sureguliuoti per daug. Toliau panagrinėkime, kokius pirmuosius žingsnius link dirbtinio intelekto reglamentavimo žengia Europos Sąjunga.
2020 m. vasario 19 d. Europos Komisijos paskelbtoje baltojoje knygoje dėl dirbtinio intelekto įtvirtinta, jog: „Norėdama išnaudoti dirbtinio intelekto teikiamas galimybes ir atremti dėl jo kylančius iššūkius, Europos Sąjunga turi veikti vieningai, kaip kumštis, ir remdamasi Europos vertybėmis rasti savo būdą, kaip plėtoti ir diegti dirbtinį intelektą.“ Visgi kyla klausimas, koks gi tas „savo“ būdas? Štai 2018 m. balandžio 25 d. Europos Komisija komunikate „Dirbtinis intelektas Europai“ pažymėjo, jog ,,viena vertus, turime palaikyti mokslinius tyrimus dirbtinio intelekto srityje, naudingų dirbtinio intelekto programų kūrimą ir diegimą, kita vertus, turime užtikrinti, kad yra išsaugoma tinkama teisinė ir etinė sistema, pagrįsta europinėmis vertybėmis, ir kad dirbtinis intelektas prisideda prie socialinio gėrio“. Aksioma, jog pagrindinė dirbtinio intelekto varomoji jėga yra duomenys. Ne veltui dažnai girdime, jog duomenys yra šių laikų nafta. Kalbant apie duomenis ir jų panaudojimą europietiško dirbtinio intelekto formavimo aplinkybėmis, svarbus yra 2020 m. vasario 19 d. Europos Komisijos komunikate „Europos duomenų strategija“ nurodytas teiginys, kad „Jungtinių Amerikos Valstijų duomenų erdvės organizavimas paliktas privačiajam sektoriui, Kinijoje vyriausybė vykdo sekimą, o technologijų milžinės griežtai kontroliuoja didžiulius duomenų kiekius neužtikrindamos pakankamos asmenų apsaugos. Europos potencialą turime išnaudoti europietiškai – užtikrinti duomenų judėjimą ir platų jų naudojimą kartu išlaikant aukštus privatumo, saugumo, saugos ir etikos standartus“. Reziumuojant, nors pastebime, kad Europos Komisijos požiūris į dirbtinį intelektą orientuotas į balansą tarp technologinio pranašumo ir pasitikėjimo, siekimo padidinti mokslinių tyrimų ir pramonės pajėgumus bei pagrindinių teisių užtikrinimo, visgi nėra aišku, kokio masto dirbtinio intelekto intervencija į tradicinius paslaugų teikimo būdus yra laikoma „europietiška“, kur visgi yra brėžiama ta riba tarp to, kas yra europietiška, o kas nebe.
Paminėtina ir kone svarbiausia iniciatyva Europoje šiuo metu – 2021 m. balandžio 21 d. Europos Komisijos paskelbtas pasiūlymas dėl Dirbtinio intelekto reglamento. Tai pirmasis pasaulyje konkretus pasiūlymas reguliuoti dirbtinį intelektą. Kaip žinia, Europos Sąjungos teisės sistemoje reglamentas yra privalomas teisės aktas, kuris turi būti taikomas visa apimtimi visoje Europos Sąjungoje. Kas įdomu, čia dirbtinio intelekto prietaikos yra skirstomos pagal sukeliamą riziką į nepriimtinos rizikos, didelės rizikos, nedidelės rizikos ir minimalios rizikos ir atitinkamai pagal tai yra siūloma nustatyti reikalavimus, kuriuos turėtų atitikti tokios prietaikos prieš jų naudojimą.
Apibendrinant, europietiškas dirbtinis intelektas turėtų būti suvokiamas kaip dvilypis, savyje talpinantis du tikslus – vienas jų yra pasivyti lyderes Kiniją ir Jungtines Amerikos Valstijas savo išradimais ir jas pralenkti, o kitas – užtikrinti, kad tiek metų kurtos, tobulintos Europos Sąjungos teisės aktų garantuojamos mums teisės, nebūtų pažeidžiamos šiais naujų iššūkių kupinais laikais. Kol kas europietišką požiūrį galime apibūdinti tik šitaip, bet tikėtina, jog greitu metu sulauksime dar daugybės soft law šaltinių – rekomendacijų, komunikatų, gairių, o galiausiai turėsime ir hard law šaltinį – pirmąjį pasaulyje dirbtinio intelekto reglamentą. Iš tiesų pasirinktas Europos Sąjungos kelias nėra pats lengviausias, bet labai norisi tikėti, kad kaip ir su Bendruoju duomenų apsaugos reglamentu tapsime sektinas pavyzdys kitoms pasaulio šalims suklusti ir ieškoti to aukso viduriuko, balanso tarp tinkamo žmogaus teisių užtikrinimo ir technologinio proveržio nepažabojimo. Tokių optimistinių tikslų įgyvendinimas, manytina, pateisintų lėtesnį europietiško dirbtinio intelekto vystymosi modelį. Tik kokybe galima būtų įgyti pranašumą prieš kitas šalis lyderes. Dinamiškumu pasižymintis dirbtinis intelektas užima vis platesnes erdves, tad laikas tikrai nėra sąjungininkas dirbtinio intelekto reglamento, komunikatų, rekomendacijų kūrėjams. Taigi tam, jog nedidėtų atotrūkis tarp dirbtinio intelekto veikimo ir jo teisinio sureguliavimo, būtina veikti ne tik atsakingai, bet ir sparčiu tempu.
Goda Strikaitė-Latušinskaja yra Vilniaus universiteto Teisės fakulteto Viešosios teisės katedros doktorantė, Vilniaus universiteto Teisės fakulteto teisinės sistemos tyrimų skyriaus „PhD LAB“ bei Vilniaus universiteto Teisės fakulteto mokslinės teminės grupės Administracinės teisės sistemos pokyčiai: adaptyvios lyderystės viešajame administravime link narė.
Komentaras parengtas 2021 m. gruodžio 15 d. konferencijoje „Žmogaus teisės skaitmenizacijos amžiuje”, kurią organizavo NVO Žmogaus teisių balsas kartu su Nyderlandų Karalystės ambasada Lietuvoje ir Baltic Human Rights Society (Latvija), skaityto pranešimo pagrindu.