M. Tamošaitis, N. Gaubienė. Dirbtinio intelekto atsakomybės iššūkiai

Dirbtinio intelekto (DI) tema per pastaruosius metus tapo viena aktualiausių diskusijose apie technologijų ir inovacijų ateitį.
Dirbtinio intelekto aktas: teisėsaugos ir teisinės atsakomybės iššūkiai
Nuo 2020 m. stebimas eksponentinis DI populiarumo augimas, ypač išplitus generatyviniams modeliams, tokiems kaip ChatGPT, Gemini ar Grok. Tačiau ši technologija kelia ne tik naujas galimybes, bet ir teisines rizikas. Iš teisinės ir kriminologinės pusės matome, kad Europos Sąjungos (ES) priimtas Dirbtinio intelekto aktas (DI aktas) iš esmės keičia inovacijų reguliavimo kryptį ne vien naujausių technologijų pritaikyme, tačiau ir teisėsaugos srityje bei baudžiamosios atsakomybės kontekste.
Kiekvienas į ateitį žvelgiantis verslas, akylai stebėdamas naujausias dirbtinio intelekto plėtojimosi galimybės, tuo pačiu metu aktyviai ieško būdų šią technologiją kuo sėkmingiau pažaboti bei įdarbinti savo veiklos srityse. Pagrindinis tikslas – didesnis produktyvumas. Ir iš tiesų, sparčiai tobulėjantis dirbtinis intelektas tampa precedento neturinčia priemone, galinčia ne tik efektyviai optimizuoti veiklą, bet ir pasiekti naują visapusio produktyvumo lygmenį. Kaip pažymėta 2018 m. Ekonominio bendradarbiavimo ir plėtros organizacijos (OECD) pranešime – „Automatizavimas, įgūdžių naudojimas ir mokymai“, Lietuvoje net apie 57 % vidutinio darbininko atliekamų darbo užduočių galėtų būti automatizuotos ir būtent dirbtinio intelekto sistemos turi galimybę padėti šį automatizavimą įgyvendinti.
Reguliavimo iššūkiai: būtina apsauga ar kliūtis inovacijoms?
DI plėtrą lydi ir naujos rizikos, susijusios su piktnaudžiavimu technologija bei žmogaus teisių pažeidimais. Pavyzdžiui, kai kurios DI sistemos gali būti naudojamos automatizuoti sprendimų priėmimą, kuris daro įtaką žmonių gyvenimui – nuo įdarbinimo iki kreditų suteikimo ar net teisėsaugos sprendimų. Šių technologijų netinkamas reguliavimas gali sukelti diskriminaciją ar neteisėtą asmens duomenų naudojimą. Reaguodama į šiuos iššūkius, Europos Sąjunga priėmė DI aktą – pirmąjį tokio pobūdžio reguliavimo dokumentą pasaulyje, kurio tikslas – skatinti atsakingą DI naudojimą užtikrinant pagrindinių teisių apsaugą.
Tačiau aktas sulaukia kritikos iš technologijų bendruomenės ir inovacijų skatinimo organizacijų. Ekspertai baiminasi, kad pernelyg griežtos reguliacinės priemonės gali sulėtinti Europos konkurencingumą DI srityje, palyginti su kitais regionais, pavyzdžiui, JAV ar Kinija, kur reguliavimo aplinka yra lankstesnė.
Visgi, greitai judančiame ir besikeičiančiame pasaulyje, net toks svarbus teisės aktas yra žinomas ne visiems, nors jame numatyti reguliavimo ir rizikų valdymo veiksniai paveikia praktiškai kiekvieno Europos piliečio gyvenimą ir neabejotina, kad ateityje šis poveikis tik augs.
DI teisėsaugoje: nauda ir pavojai
Ne paslaptis, kad ši galinga technologija susilaukia ir didelio valstybinio sektoriaus įstaigų dėmesio. Dirbtinis intelektas jau dabar naudojamas teisėsaugos institucijose – pradedant automatizuotomis stebėjimo sistemomis, baigiant duomenų analize kriminalistikos tyrimuose. DI aktas reikalauja ypatingo atsargumo, kai kalbama apie biometrinius duomenis, veidų atpažinimo technologijas ar automatizuotus sprendimus baudžiamosiose bylose. Nors tokios sistemos gali padidinti operatyvumą, kyla rimtų klausimų dėl neteisėto asmens duomenų naudojimo, klaidingo kaltinimų paskelbimo ar net diskriminacijos rizikos. Viena didžiausių DI teisėsaugos iššūkių – algoritminis šališkumas. Jei DI modeliai mokomi su neobjektyviais ar istoriškai diskriminaciniais duomenimis, jie gali kartoti ir stiprinti egzistuojančius teisėsaugos netolygumus.
Pavyzdžiui, jei dirbtinio intelekto sistema mokoma naudojant duomenis apie nusikaltusius asmenis, kuriuose dominuoja tam tikros rasės, religijos ar lyties nusikaltėliai, ji gali tapti šališka būtent šių grupių atžvilgiu. Kinijoje jau dabar yra naudojamos įvairios dirbtinio intelekto sistemos, padedančios skirti bausmę nusikaltimus padariusiems asmenims ir kai kurie moksliniai tyrimai rodo, kad šios sistemos yra šališkos bei linkusios skirti griežtesnes bausmes atskirų etninių mažumų atstovams.
ES reguliavimas numato griežtas duomenų apsaugos priemones, tačiau praktikoje kyla klausimas, ar DI sprendimai atitiks pagrindinius teisinio skaidrumo principus. Jei baudžiamosios atsakomybės klausimu sprendimus dalinai lemtų DI modeliai, kas prisiims atsakomybę už klaidingus ar neteisingus sprendimus?
Atsakomybės klausimas: kas atsako už DI klaidas?
DI aktas numato sankcijas už neleistiną DI naudojimą, ypač didelės rizikos srityse. Šios sankcijos yra vienos griežčiausių Europos Sąjungos teisės istorijoje. Pavyzdžiui, nustačius, kad yra naudojama uždrausto pobūdžio dirbtinio intelekto sistema gali būti skiriama administracinė bauda net iki 35 000 000 EUR dydžio, tuo tarpu jeigu pažeidimą padarė įmonė, tai ši suma gali siekti iki 7 proc. jos bendros pasaulinės praėjusių finansinių metų metinės apyvartos, atsižvelgiant į tai, kuri baudos suma yra didesnė.
DI aktas numato daugybę apribojimų, įpareigojimų ir sankcijų, už jų nesilaikymą. Visgi, ne visos sritys DI akte yra aiškiai apibrėžtos ir lieka neatsakytų klausimų – ar baudžiamosios atsakomybės atveju galima teisti DI sistemų vystytojus, jeigu šios sistemos padaro klaidą? Ar atsakomybę turėtų prisiimti DI naudotojai, kurie ne visada supranta technologijos veikimo principus?
Pagal DI aktą, nepriimtinos rizikos sistemos (pvz., manipuliacinės ar socialinio reitingavimo sistemos) yra visiškai draudžiamos, su keliomis smulkiomis išimtimis teisėsaugos institucijoms. Didelės rizikos DI sprendimai, tokie kaip teisėsaugos naudojami stebėjimo įrankiai, gali būti taikomi tik griežtai laikantis skaidrumo ir priežiūros reikalavimų. Tačiau realybėje net ir teisiškai leidžiama DI sistema gali sukelti pavojų. Pavyzdžiui, jei automatizuota sistema neteisingai priskiria asmenį nusikaltimui, kas už tai atsakingas?
Be to, DI aktas numato griežtą priežiūros mechanizmą – kiekviena ES narė privalo paskirti atsakingas institucijas DI reguliavimui ir vykdymo priežiūrai. Lietuvoje ši funkcija patikėta Ryšių reguliavimo tarnybai bei Inovacijų agentūrai.
Ar DI aktas stabdo inovacijas, ar užtikrina teisinę apsaugą?
Didelė dalis technologijų bendruomenės atstovų baiminasi, kad DI aktas gali apriboti Europos konkurencingumą ir sukurti biurokratinę naštą inovacijoms. Jau dabar viešojoje erdvėje dažnai girdima mintis, kad dirbtinio intelekto inovacijos Europoje gerokai atsilieka nuo JAV ar Kinijos. Tačiau, kaip teisės srities atstovai, matome ir kitą pusę – jei DI nebus reguliuojamas, mes susidursime su precedento neturinčiomis teisinėmis problemomis, ypač baudžiamosios atsakomybės ir privatumo apsaugos srityse.
Todėl svarbiausias klausimas lieka atviras: ar reguliavimas bus pakankamai lankstus, kad leistų vystytis technologijoms, bet kartu užtikrintų, jog DI naudojimas nepažeis pamatinių teisių ir teisėsaugos principų? Šiame kontekste Lietuvai ypač svarbu pasitvirtinti aiškią nacionalinę strategiją, kuri ne tik leistų planuoti investicijas į DI, bet ir padėtų brėžti ilgalaikę kryptį. Be aiškios vizijos, Lietuva rizikuoja tapti tik reguliavimo vartotoja, o ne aktyvia DI politikos formuotoja.
DI aktas yra bendro pobūdžio dokumentas, skirtas visoms Europos Sąjungos valstybėms narėms. Dėl to jis negali nustatyti konkrečių dirbtinio intelekto plėtros krypčių ar principų atskirai šaliai, įskaitant Lietuvą.
Lietuvoje vis dar trūksta aiškios politinės krypties šiuo klausimu, todėl rasti tinkamus sprendimus yra sudėtinga. Atrodo, kad dirbtinio intelekto teisė yra apgaubta nežinomybės ir abejonių migla, o norint per veiksmingai per ją naviguoti reikalingas aiškių politinių gairių nutiestas kelia. Deja, šio kelio Lietuvoje rasti dar nepavyksta. Tai stabdo dirbtinio intelekto plėtojimą ir pritaikymą, ypatingai teisėsaugos srityse. Be to, aiškių politinių sprendimų stoka ne tik lėtina šio pobūdžio inovacijas, tačiau ir kelia rizikų, palieka vietos interpretacijoms ir gali lemti neteisingą dirbtinio intelekto naudojimą, pažeidžiant žmogaus teises bei laisves.
Šiai problemai spręsti būtini aukščiausio lygio politiniai sprendimai, kurie turėtų būti priimti kuo greičiau, nes kiekvienas neaiškaus klaidžiojimo momentas brangiai kainuoja šalies vidiniam saugumui bei vystymuisi. Tik aiškios gairės leis tiek verslo, tiek viešojo sektoriaus institucijoms užtikrintai ir atsakingai taikyti dirbtinį intelektą bei atvers duris sėkmingai dirbtinio intelekto inovacijai bei plėtrai.
Kaip kriminologas ir teisininkė, raginame ne tik technologijų vystymo bendruomenę, bet ir teisėsaugos bei, svarbiausia, politikos formuotojus aktyviai diskutuoti apie DI taikymo galimybes ir ribas, siekiant išvengti tiek teisėsaugos piktnaudžiavimo, tiek inovacijų stagnacijos. Strategiškai suplanuotas DI reguliavimas gali tapti ne stabdžiu, o galimybe Lietuvai išnaudoti DI plėtrą savo konkurencingumo didinimui tarptautinėje erdvėje.
Su DI aktu privalo susipažinti kuo daugiau Lietuvos privataus ir viešojo sektoriaus atstovų. Lietuva turi galimybę tapti šios srities lydere, užtikrinančia aiškų ir subalansuotą dirbtinio intelekto inovacijų kelią. Tai laukas, kuriam neužtenka gerų sprendimų, reikia skirti visas pastangas idealių sprendimų paieškai, nes nuo šių sprendimų priklauso tolimesnė šalies ateitis ne vien versle ar ekonomikoje, tačiau ir teisėje bei teisėsaugoje.
Matas Tamošaitis yra Lietuvos kriminologų asociacijos narys ir Lietuvos kriminalinės policijos biuro atstovas, dr. Neringa Gaubienė yra Vilniaus universiteto Teisės fakulteto asistentė