Komentarai

G. Strikaitė. Dirbtinio intelekto iššūkiai Europos Sąjungos vartotojų teisei

Dirbtinis intelektas yra taip plačiai pritaikomas ir taip sparčiai vystosi, jog iš esmės priimti vos keletą teisės aktų, reglamentuojančių visą dirbtinį intelektą, yra praktiškai neįmanoma ir netikslinga. Į revoliuciją nėra atsakoma priimant naują Europos Sąjungos direktyvą, priešingai, dirbtinis intelektas dėl jo specifikos turi būti reglamentuojamas kiekvienu atveju atskirai (angl. case-by-case), išnaudojant jau egzistuojančius teisės instrumentus. Vienas jų – Europos Sąjungos vartotojų teisė. Europos Sąjungos vartotojų teisėje galime išskirti šiuos tris itin svarbius ketvirtosios pramonės revoliucijos eroje principus: vartotojo kaip silpnesnės šalies apsauga, sutarčių laisvės principas ir nediskriminavimas.

Vartotojo, kaip silpnesnės šalies, apsaugos principas tradiciškai buvo siejamas su mažesniu jo pranašumu vartojimo santykiuose dėl skirtingo žinių, patirties ir derybinės galios kiekio. Tačiau, keičiantis laikams, vartotojai susiduria su naujais iššūkiais, o galios santykis tarp vartotojų ir pardavėjų yra iškreipiamas kitais aspektais. Algoritmai yra pajėgūs nustatyti vartotojų poreikius, norus, sudaryti konkrečius personalizuotus vartotojų segmentus, tad natūralu, jog kyla abejonių dėl vartotojo, kaip silpnesnės šalies, tinkamos apsaugos, įvertinus, kokį pranašumą algoritmų valdytojai turi prieš vartotojus informacijos prasme.

Kaip žinoma, dirbtinio intelekto pagalba vartotojams yra nustatomos individualizuotos kainos, t. y., atsižvelgus į tam tikrus sukauptus duomenis, kiekvienam vartotojui gali būti nustatoma didžiausia kaina, kurią konkretus vartotojas gali ar nori mokėti. Dar 2000 m., kai vienas nuolatinis elektroninės komercijos bendrovės Amazon klientas po to, kai ištrynė savo kompiuterio slapukus (angl. cookies) ir pamatė mažesnę DVD grotuvo kainą, buvo pranešta, kad Amazon skirtingiems pirkėjams siūlė skirtingas kainas. Paaiškėjo, kad pirkėjams, kurie buvo anksčiau užsisakę prekių iš Amazon, buvo rodomos didesnės prekių kainos, nei naujiems pirkėjams. Štai 2012 m. WallStreet Journal buvo paskelbta, jog kelionių puslapyje Orbitz, nustačius, jog Mac kompiuterių turėtojai išleidžia apie 30% daugiau pinigų už viešbučių paslaugas nei įprastų kompiuterių turėtojai, prisijungusiems iš Mac kompiuterių buvo pradėta rodyti didesnes kainas už viešbučių paslaugas.

2019 m. lapkričio 27 d., reaguojant į didėjantį informacijos disbalansą tarp vartotojų ir pardavėjų, buvo priimta Europos Parlamento ir Tarybos direktyva 2019/2161, kurioje nurodyta, jog vartotojai turėtų būti aiškiai informuojami tais atvejais, kai jiems nurodyta kaina yra individualizuota taikant automatizuotą sprendimų priėmimą, kad jie priimdami savo sprendimus dėl pirkimo galėtų įvertinti aplinkybes, numatyti prekių ar paslaugų teikėjų pasirenkamas rinkodaros strategijas. Šis informavimo reikalavimas neturėtų būti taikomas tokiems metodams kaip „dinamiškas“ arba „realiu laiku vykdomas“ kainų nustatymas, pagal kurį kaina keičiama labai lanksčiai ir greitai, atsižvelgiant į paklausą rinkoje, kai tokiais būdais nevykdomas individualizavimas, remiantis automatizuotu sprendimų priėmimu (tarkime, kai oro linijų bilietų kainos keičiasi priklausomai nuo to, kiek vietų į tam tikrą reisą parduota arba kiek dienų iki tam tikro skrydžio reiso liko ir pan.). Iš šio naujo reglamentavimo matome, jog atsiranda takoskyra tarp pardavimų strategijų (kai reaguojant į rinką yra keičiamos kainos) bei personalizuoto kainų nustatymo, o įgyvendinus šią direktyvą pagaliau vartotojams bus aišku, kada internetinėse platformose jiems siūloma kaina buvo nulemta segmentavimo.

Visgi, kadangi kainų diskriminacija dažnai remiasi segmentais, susietais su tam tikrais konkrečiais asmenimis ar jų grupėmis, tad išlieka neaišku, kas nutinka jei, tarkime, asmuo įvertinamas kaip daugiau išleidžiantis nors jo banko kortele naudojasi ir kiti jo pačios šeimos nariai. Taip pat svarbu atkreipti dėmesį, jog iš esmės įrašas, jog kaina yra personalizuota gali būti nepakankamas tokiais atvejais, kai vartotojas objektyviai neturi galimybės sužinoti, kiek jam rodoma kaina skiriasi nuo įprastos rinkos kainos už tam tikrą produktą. Atitinkamai, nors kainų diskriminacija, leidžianti visada pasiūlyti tik didžiausią kainą, kurią yra pasiryžęs mokėti pirkėjas skamba kaip verslo subjektų svajonė, manytina, jog ne veltui asmens duomenys yra įvardijami kaip šių laikų nafta. Reikėtų nepamiršti, jog vartotojas vartojimo santykiuose pagrįstai yra įvardijamas kaip silpnesnioji šalis, o jo galios disbalansas turi būti atstatomas būtent per vartotojo informavimą ir prekių, paslaugos tiekėjų skaidrumą. Manytina, jog neaiškumas, kokie duomenys yra renkami su tikslu verslo subjektams padidinti gaunamą pelną pasinaudojant kainų personalizavimui, kokią galią jie turi, kas lemia, kad asmuo priskiriamas prie tam tikros grupės bei galimybės apskųsti tokį priskyrimą nebuvimas didina vartotojų nepasitikėjimą prekyba skaitmeninėmis priemonėmis bei vartotojų ir pardavėjų galios disbalansą.

Sutarčių laisvės principas tradiciškai apima laisvę sudaryti sutartį, laisvę atsisakyti sudaryti sutartį, laisvę savo nuožiūra nustatyti sutarties turinį. Analizuojamos temos kontekste sutarčių laisvės principas svarbus ne tik kaip pardavėjo teisė nuspręsti, kokiomis sąlygomis parduoti prekę, bet ir kaip pirkėjo teisė laisva valia sudaryti sutartį. Algoritmų amžiuje vartotojų autonomijai nuspręsti, kada ir kokias sutartis sudaryti, iškyla pavojus tais atvejais, kai kalbame apie į elgesį orientuotų reklamų pateikimą vartotojams. Algoritmai, rinkdami informaciją apie vartotojus ir kurdami jų profilius geba nustatyti, kada asmuo yra labiausiai pažeidžiamas ir būtent tuo metu siūlyti jam tam tikras prekes ar pateikti reklamas, siekdami kuo didesnio pelno. Dėl didžiųjų duomenų (angl. Big data) analitikos didžiuliai informacijos kiekiai gali būti panaudoti siekiant personalizuoti paslaugų sferą, ko nebuvo galima padaryti anksčiau. Kai kurie neįžvelgia čia problemos – jei jau žiūrėti reklamas, tai kodėl ne tas, kurios mums įdomios? Tačiau iš tiesų problema atsiranda tada, kai tikslinė reklama pasidaro agresyvi – sistema, kuri pasinaudoja vartotojų pažeidžiamumu gali būti tiesiog užprogramuota skatinti didesnius pirkimus ir veikti nepaisydama tam tikrų teisiškai svarbių faktorių – pvz., azartinių lošimų pasiūlymai gali būti pateikiami priklausomiems nuo lošimo žmonėms, psichoaktyvūs vaistai siūlomi depresija sergantiems žmonėms ir pan. Tai, kad asmenys yra pažeidžiami matome iš Cambridge Analytica skandalo, taip pat iš 2015 m. Kembridžo universiteto atlikto tyrimo, kuriame buvo vertinama, kaip algoritmas, naudodamas duomenų rinkinį, sukauptą iš asmens veiklos „Facebook“ programėlėje, sugeba vertinti asmenybes. Rezultatas buvo toks, jog iš 300 mėgti (angl. like) paspaudimų duomenų bazės algoritmo spėjimai buvo geresni nei tų asmenų vyrų/žmonų. Kaip pastebėta Wagnerio tyrimo metu, asmens duomenų panaudojimas individualiam profiliavimui ir vėlesnis pakartotinis jų naudojimas kelia grėsmę asmens teisei į „informacinį apsisprendimą“, ypač atsižvelgiant į tai, kad net gana kasdieniški, nekenksmingi duomenys, surinkti iš asmenų skaitmeninių pėdsakų, gali būti susiejami su kitais duomenų rinkiniais ir sujungiami taip, kad būtų galima gauti įžvalgas, kurios leistų nustatyti privačią, o kartais ir intymią, asmeninę informaciją.

Neneigtina, jog tam tikros rinkodaros gudrybės naudojamos jau daugybę metų  ne paslaptis, jog saldumynai išdėliojami prie kasos, kad eilėje laukiantys nuobodžiaujantys vaikai prašytų tėvų juos nupirkti, tačiau, kaip teisingai pastebėjo Z. Zarsky, prekybos centrai, parduotuvės ir prekybos automatai realiu laiku nekeičia savo išdėstymo ir turinio, kad atitiktų konkrečių asmenų poreikius kritiškai svarbiais momentais, susijusiais su jų fiziologine ar psichologine būkle. Prekybos centrai, parduotuvės ir prekybos automatai taip pat ne visada gali žinoti, kada mes esame labiausiai pažeidžiami ir pasinaudoti tuo. Priešingai nei algoritmai. Ne veltui Patikimo dirbtinio intelekto etikos gairėse akcentuojama, jog norint užtikrinti asmens laisvę, būtina mažinti (ne)tiesioginę neteisėtą prievartą, grėsmę psichinei autonomijai ir psichikos sveikatai, neteisėtą stebėjimą, apgaulę ir nesąžiningą manipuliavimą, o pagarbos žmogaus autonomijai principas reikalauja, jog su dirbtinio intelekto sistemomis sąveikaujantys žmonės išsaugotų teisę visapusiškai ir veiksmingai apsispręsti patys ir galimybę dalyvauti demokratiniame procese.

Apibendrinant, pagal dabartinį ES reglamentavimą, aukščiau minėta reklama tam tikrais atvejais galėtų būti laikoma klaidinančia komercine veikla arba gali būti taikomas agresyvios komercinės veiklos institutas. Taip pat akcentuotina, jog tikslinės į žmogaus elgesį orientuotos reklamos naudojimas gali kelti sutarčių laisvės principo – konkrečiai – vartotojo laisvos valios priimti ofertą – pažeidimo riziką. Dėl šios priežasties, manytina, proaktyviai turėtų būti sureguliuotos tam tikros visuomenei jautrios sritys (tokios, kaip, tarkime, priklausomybės, farmacija, medicina), kuriose į žmogaus elgesį orientuota reklama pagal sukurtą specialų teisinį reguliavimą turėtų būti ribojama.

Nediskriminavimo principas  principas, reikalaujantis, jog panašios situacijos nebūtų traktuojamos skirtingai, o skirtingos situacijos nebūtų traktuojamos vienodai, nebent toks elgesys būtų objektyviai pateisinamas  yra ypač svarbus vartotojų teisių gynybai technologijų amžiuje. Pažymėtina, jog yra ribotas ypatybių, kuriomis remiantis įstatymai draudžia diskriminaciją, spektras. Tokios saugomos savybės, visų pirma, apima tautybę, lytį, rasinę ir etninę kilmę, religiją ir įsitikinimus, amžių ir seksualinę orientaciją, tačiau neapima ekonominių nelygybės aspektų. Naudojant dirbtinį intelektą atsiranda nauji iššūkiai vartotojų nediskriminavimui – dėl neobjektyvių duomenų bazių naudojimo ar duomenų išsamumo stokos, segmentavimo procesas gali būti neteisėtas, todėl asmenys gali būti netinkamai segmentuojami. Nediskriminavimo principo ribose galėtų būti vertinamas ir kainų diskriminacijos institutas. Pavyzdžiui, asmeniui teisingai priskirtam prie „neturtingųjų“ gali būti neleidžiama naudotis paslauga arba jam gali būti nepateikiami tam tikri medicininio gydymo pasiūlymai, preziumuojant, jog jis negalės už šias paslaugas sumokėti. Taip pat egzistuoja rizika, kad tie, kurie naudoja algoritmus, gali sąmoningai siekti, kad tam tikros asmenų grupės būtų diskriminuojamos. Atkreiptinas dėmesys, jog algoritmų veikimas dažnai yra saugomas patentų, todėl sužinoti jų veikimą ir tokį potencialų diskriminavimą, kuris, tiesa, gali būti nukreiptas į visai kitokias nei mums įprastai žinomos kategorijas, gali būti sunkiai atsekamas.

Taigi, apibendrinant, manytina, jog nuolat augant elektroninės prekybos apimtims bei vartotojų nusiskundimų viešosiose informavimo priemonėse skaičiui, vertėtų ne tik plačiau diskutuoti apie tokių vartotojų teisės principų kaip vartotojo, kaip silpnesnės šalies, apsauga, sutarčių laisvės principas ir nediskriminavimas taikymą, bet ir užtikrinti, kad šios idėjos būtų pritaikytos praktikoje. Dinamiškumu pasižymintis Ketvirtosios pramonės revoliucijos procesas, kuriuo efektyviai naudojasi verslo subjektai, turi būti nuolat peržiūrimas, vertinamas, esant poreikiui, sureguliuotas taip, kad būtų užtikrinta interesų pusiausvyra tarp prekių ar paslaugų tiekėjų ir vartotojų.

Goda Strikaitė yra VU Teisės fakulteto Viešosios teisės katedros doktorantė

Back to top button