Duomenų karštinė dirbtinio intelekto amžiuje: kokios teisės priklauso duomenų subjektams?
Dirbtinio intelekto technologijos šiuo metu išgyvena aukso amžių. Kalbos robotai (angl. chatbots), veikiantys didžiųjų kalbos modelių (angl. large language models) pagrindu, tokie kaip OpenAI „ChatGPT“ ar Google „Gemini“, įsiveržė į žmonių bei verslo kasdienybę ir ne tik palengvino nemažos dalies kasdienių užduočių atlikimą, bet ir įaudrino vaizduotę dėl ateityje atsiversiančių galimybių.
Tam, kad dirbtinio intelekto sistemos, pagrįstos didžiaisiais kalbos modeliais, veiktų patikimai, jas būtina apmokyti nepaprastai dideliais duomenų kiekiais, kurie įprastai gaunami iš internete esančios informacijos. Šie apmokymams reikalingi duomenų kiekiai tokie dideli, kad dirbtinio intelekto technologijas plėtojančios kompanijos pradeda susidurti su labai rimta praktine problema – greitu metu paprasčiausiai gali nebepakakti duomenų, reikalingų apmokyti naujiems jų sistemų modeliams.[1]
Vienas iš pagrindinių būdų technologijų kompanijoms gauti daugiau duomenų dirbtinio intelekto sistemoms yra panaudoti jų platformų vartotojų sukuriamus duomenis. Pavyzdžiui, „Meta“ prieš kelias savaites paskelbė, kad visa jos valdomose socialinių tinklų platformose („Facebook“, „Instagram“, „WhatsApp“) vartotojų viešai skelbiama informacija bus naudojama „Meta“ plėtojamoms dirbtinio intelekto sistemoms (pvz., neseniai pasirodęs kalbos robotas Llama 3) apmokyti. Taip pat „Meta“ nurodė, kad vartotojai galės pasirinkti neleisti savo duomenų naudoti šiam tikslui (angl. opt-out). Norėdamas išreikšti tokį prieštaravimą, atitinkamoje platformoje vartotojas turi užpildyti reikiamą formą, pateikdamas savo duomenis ir nurodydamas, kaip jo duomenų naudojimas dirbtiniam intelektui apmokyti jį neigiamai paveiks. „Meta“ peržiūri kiekvieną prieštaravimo formą. Tad panašu, kad prieštaravimo patvirtinimas nėra automatinis. Atsižvelgiant į visa tai, natūraliai kyla klausimas, kokias teises savo generuojamų duomenų atžvilgiu vis dar turi vartotojai?
Ar BDAR reikalauja, kad asmens duomenys būtų naudojami dirbtinio intelekto mokymui tik gavus asmens sutikimą?
Teisinis santykis su Bendruoju duomenų apsaugos reglamentu (BDAR) iš pažiūros gali kelti daug klausimų, ypač kalbant apie asmens duomenų naudojimą dirbtinio intelekto mokymui. Vienas iš pamatinių BDAR principų – asmens duomenys gali būti tvarkomi tik teisėtai, sąžiningai ir skaidriai. Nors sutikimas yra vienas iš pagrindinių teisėtų duomenų tvarkymo pagrindų, jis nėra vienintelis.
BDAR nurodo šešis teisėto asmens duomenų tvarkymo pagrindus, iš kurių sutikimas yra tik vienas. Asmens duomenys gali būti tvarkomi sutikus duomenų subjektui, kai sutikimas yra laisvai duotas, specifinis, informacija pagrįstas ir nedviprasmiškas. Tačiau dirbtinio intelekto mokymui duomenų tvarkymas ne visada reikalauja sutikimo, jei jis pagrįstas kitais pagrindais, numatytais BDAR, pavyzdžiui, teisėto intereso pagrindu.
Teisėti interesai ir inovacijų augimas
Teisėti interesai yra vienas iš BDAR numatytų pagrindų, leidžiančių asmens duomenų tvarkymą be tiesioginio asmens sutikimo. Šis pagrindas ypač svarbus dirbtinio intelekto mokymo kontekste, kai inovacijų augimas ir technologinė pažanga gali būti pripažįstami tais veiksniais, kurie sudaro teisinį interesą, ir tokiu pagrindu leidžiantys naudoti viešai skelbiamus asmens duomenis dirbtinio intelekto mokymo tikslais.
Teisėti interesai leidžia duomenų valdytojui tvarkyti asmens duomenis, jei tai būtina siekiant teisėtų duomenų valdytojo ar trečiosios šalies interesų, nebent šie interesai būtų mažiau svarbūs už duomenų subjekto pagrindines teises ir laisves. Tai reiškia, kad dirbtinio intelekto mokymas gali būti laikomas teisėtu interesu, jei jis skirtas, pavyzdžiui, paslaugų kokybės gerinimui, inovacijų skatinimui, technologinei pažangai ar efektyvesniam verslo procesų valdymui.
Taikant teisėtų interesų principą kaip pagrindą dirbtinio intelekto mokymui, būtina užtikrinti skaidrumą ir atskaitomybę. Duomenų valdytojai turi aiškiai informuoti duomenų subjektus apie duomenų tvarkymo tikslus, metodus ir teisėtus pagrindus. Taip pat būtina atlikti interesų pusiausvyros testą, siekiant užtikrinti, kad duomenų subjektų teisės ir laisvės nėra pažeidžiamos. Šis testas padeda įvertinti, ar duomenų valdytojo teisėti interesai yra svarbesni už duomenų subjekto privatumą ir teises.
Technologinė pažanga ir inovacijos yra esminiai veiksniai, skatinantys ekonomikos augimą ir visuomenės gerovę. Dirbtinio intelekto mokymui reikalingi dideli duomenų kiekiai, kurie gali apimti asmens duomenis. Teisėtų interesų principas leidžia duomenų valdytojams tvarkyti šiuos duomenis, siekiant kurti naujas technologijas ir gerinti esamas.
Visgi, nepaisant to, kad asmens duomenys yra tvarkomi teisėto intereso pagrindu, reikia paminėti, jog duomenų subjektas turi teisę prieštarauti dėl savo asmens duomenų tvarkymo. Tačiau ši teisė nėra absoliuti: duomenų valdytojas turi įvertinti kiekvienu konkrečiu atveju tokio pobūdžio prieštaravimą ir nuspręsti, ar teisėti interesai nusveria duomenų subjekto teises ir laisves. Pavyzdžiui, duomenų subjektui išreiškus nesutikimą dėl asmens duomenų tvarkymo, duomenų valdytojas privalo nutraukti asmens duomenų tvarkymą, išskyrus atvejus, kai valdytojas įrodo, kad duomenys turi būti toliau tvarkomi dėl įtikinamų teisėtų priežasčių, kurios yra viršesnės už duomenų subjekto interesus, teises ir laisves.
Taigi, nors sutikimas yra svarbus teisėto asmens duomenų tvarkymo pagrindas, teisėti interesai taip pat gali būti teisinis pagrindas rinkti duomenis dirbtinio intelekto mokymui. Tai leidžia skatinti inovacijas ir technologinę pažangą, užtikrinant, kad duomenų subjektų teisės ir laisvės būtų tinkamai apsaugotos.
Ar įmanoma pusiausvyra tarp technologinės pažangos ir teisės į privatumą?
Socialinių tinklų naudojimas per se visuomet susijęs su dideliu asmens duomenų rinkimu ne vien tik dirbtinio intelekto mokymui. Vartotojai dažnai neįsivertina, koks kiekis asmens duomenų yra renkamas ir kaip ir kam jie naudojami. Socialinių tinklų platformos renka įvairius duomenis, įskaitant naudotojų profilio informaciją, jų veiklą platformoje, draugų sąrašus, pranešimus, reakcijas, komentarus, vietos nustatymo duomenis ir netgi naršymo istoriją. Šie duomenys dažnai naudojami tikslinės reklamos tikslais, siekiant pateikti vartotojams pritaikytas reklamas, kurios labiau atitinka jų interesus ir poreikius.
Tikslinė reklama gali turėti privalumų, tačiau ji taip pat kelia privatumo problemų. Vartotojai dažnai nežino, kokios įmonės turi prieigą prie jų duomenų ir kaip šie duomenys yra naudojami. Be to, socialinių tinklų įmonės dažnai parduoda arba perduoda surinktus duomenis trečiosioms šalims, pavyzdžiui, reklamos tinklams, rinkodaros įmonėms ar netgi kitoms socialinėms platformoms.
Kalbant apie asmens duomenų rinkimą dirbtinio intelekto tobulinimui, vartotojų sukuriamų duomenų rinkimas nėra nauja ar vien kompanijai „Meta“ būdinga praktika. Kitos kompanijos taip pat automatiškai įtraukia vartotojų duomenis į dirbtinio intelekto sistemų tobulinimą. Pavyzdžiui, į OpenAI „ChatGPT“ ar Google „Gemini“ suvestos užklausos (angl. prompts) automatiškai tampa tolesniam sistemos mokymui skirtos informacijos dalimi. Taigi, kyla klausimas, ar dirbtinio intelekto technologijoms besivystant neįtikėtinu greičiu vartotojams apskritai liks reali galimybė apsaugoti savo duomenis ir teisę į privatumą.
Dalį atsakymo į šį klausimą nulemia techninė problemos pusė. Kaip minėta, net ir naudojant vartotojų įvairiose platformose nuolat sukuriamus duomenis, atsižvelgiant į nepaprastai didelį reikiamų duomenų kiekį, siekiant apmokyti pažangiausius dirbtinio intelekto modelius, baiminamasi, kad kokybiškų duomenų tokiam apmokymui greitu metu gali nebepakakti. Tai verčia technologijų kompanijas ieškoti efektyvesnių techninių sprendimų, kuriant naujos kartos dirbtinio intelekto sistemas. Tokie sprendimai gali būti sintetinių duomenų (sukuriamų pačių dirbtinio intelekto sistemų) naudojimas ir specializuotų modelių kūrimas, jų apmokymui reikia mažiau duomenų. Tačiau ateityje neatsisakant ambicijos sukurti bendro pobūdžio dirbtinio intelekto sistemas, galinčias atlikti gerokai daugiau nei vieną specializuotą funkciją ir vienoje srityje įgytas žinias pritaikyti bet kurioje kitoje srityje, duomenų paklausa ir toliau išliks nepaprastai didelė.
Vartotojų pasirinkimo galimybės
Nors iššūkių daug, vartotojai vis dar turi tam tikras galimybes išlaikyti savo pasirinkimo laisvę. Pirmiausia, vartotojai turi suvokti, kad didžioji dalis duomenų, esančių socialinėje medijoje, yra vienaip ar kitaip panaudojami produktams ir (ar) jų tobulinimui diegiant dirbtinio intelekto sistemas. Asmens sutikimas nėra vienintelis pagrindas rinkti asmens duomenis – kaip minėta, BDAR numato šešis teisėto duomenų tvarkymo pagrindus, tarp kurių yra ir teisėti interesai. Tai reiškia, kad net jei vartotojas neduoda tiesioginio sutikimo, jo duomenys vis tiek gali būti naudojami, jei tai atitinka teisėtus interesus.
Vienas iš būdų, kaip vartotojai gali apsaugoti savo privatumą, yra reguliuoti savo privatumo nustatymus, kad sumažintų asmens duomenų rinkimą ir dalijimąsi, taip kontroliuoti, kas gali matyti jų turinį ir kokia informacija yra renkama. Pavyzdžiui, vartotojai gali padaryti savo profilį privatų, riboti prieigą prie savo pranešimų ir nuotraukų, nustatyti, kas gali matyti jų draugų sąrašą ir veiklą platformoje. Taip pat galima išjungti vietos nustatymo paslaugas, riboti programėlių ir svetainių, susijusių su socialiniais tinklais, prieigą prie asmeninių duomenų.
Be to, vartotojai turi teisę prieštarauti dėl savo asmens duomenų tvarkymo, tačiau svarbu atsiminti, kad ši teisė nėra absoliuti. Duomenų valdytojas turi įvertinti kiekvieną prieštaravimą individualiai ir nuspręsti, ar teisėti interesai nusveria duomenų subjekto teises ir laisves. Pavyzdžiui, jei duomenų subjektas prieštarauja savo duomenų naudojimui dirbtinio intelekto mokymui, duomenų valdytojas turi įrodyti, kad duomenų tvarkymas yra būtinas dėl įtikinamų teisėtų priežasčių, kurios yra viršesnės už duomenų subjekto interesus, teises ir laisves. Tik tada galima užtikrinti, kad duomenų subjektų teisės būtų tinkamai apsaugotos, o technologinė pažanga ir inovacijos būtų skatinamos atsakingai.
Tekstą parengė advokatų kontoros „Glimstedt“ vyresnysis teisininkas Ovidijus Speičys ir teisininkė Gabrielė Šapkauskaitė
[1] https://www.technologyreview.com/2022/11/24/1063684/we-could-run-out-of-data-to-train-ai-language-programs/