Tech+Law

6 pagrindinės dirbtinio intelekto turinio kūrimo įrankių naudojimo taisyklės darbuotojams

Pažangios technologijos reikalauja naujų instrukcijų darbuotojams

Dar neseniai teisininkai rengė tvarkas, draudžiančias atsisiųsti piratines programas ir naudoti jas darbinėje veikloje dėl galimo ieškinio įmonei iš autorių teisių turėtojų. Šiai dienai susiduriame su naujomis rizikomis, kurios reikalauja detalių instrukcijų darbuotojams, kad darbdavys suvaldytų dirbtinio intelekto turinio kūrimo įrankių (DI įrankiai) naudojimo riziką. Toliau pateikiamos šešios pagrindinės taisyklės, apie kurias darbuotojai turėtų žinoti prieš pradedant naudoti DI įrankius darbe.

Pasitikėk, bet tikrink

Pirma taisyklė – tikrinti DI įrankio sugeneruotą turinį. DI įrankio klaidoms netgi naudojamas dirbtinio intelekto haliucinacijų terminas.

Dirbtinio intelekto haliucinacijos gali įvykdyti dėl daugelio priežasčių, viena iš jų – pasenusi informacija. Pavyzdžiui, ieškome teisinio atsakymo, DI įrankis yra sukaupęs informaciją tik iki 2023 metų, o teisinis reguliavimas pasikeičia 2023 m. antroje pusėje. Akivaizdu, kad tokiu atveju teisingo atsakymo negausime.

Dar viena dirbtinio intelekto haliucinacijų priežastis gali būti sąmoningai sukurtos užuominos, kuriomis siekiama suklaidinti dirbtinį intelektą.

Instrukcijose darbuotojams dėl DI įrankių naudojimo turėtų būti numatyta pareiga tikrinti sugeneruotą informaciją ir nurodyta kaip tai padaryti.

Užklausose tik neutrali informacija

Antra taisyklė – užklausose naudoti nuasmenintą informaciją ir neteikti konfidencialios informacijos. Dirbtinio intelekto sistemos reikalauja didelių duomenų kiekių mokymui. Jei šie duomenys nėra saugomi tinkamai, gali kilti duomenų saugumo problemų. Pavyzdžiui, jei darbuotojas, teikdamas užklausą, įkels įmonės produktų kainodaros informaciją, šią informaciją gali gauti kitas asmuo, pateikęs atitinkamą užklausą. Kai kurie DI įrankių kūrėjai skelbia, kad specifinės „verslo“ versijos padėtų išvengti konfidencialios informacijos nutekėjimo.

Gali būti atvejų, kad neinformuoti darbuotojai viešai naudojamo DI įrankio užklausos laukelyje pateiks kandidato gyvenimo aprašymą ir paprašys DI įrankio išanalizuoti darbuotojo profilį ir pritaikyti labiausiai tinkančią pareigybę. DI įrankis gali saugoti šią informaciją, naudoti savo tikslais, perduoti į trečiąsias šalis ir kt. Dėl to kandidato duomenų saugumui gali kilti rimta rizika. Darbdavys privalo instruktuoti atranką vykdančius darbuotojus, kad tokių instrumentų naudojimas galimas tik su nuasmenintais duomenimis. Atrankoms vykdyti rekomenduojama pasitelkti specifinę tam tikrų paslaugų teikėjų teikiamą programinę įrangą, prieš tai be kita ko sudarius duomenų tvarkymo sutartį (jei reikia) ir išsiaiškinus, kokias priemones paslaugų teikėjas taiko duomenų saugumui užtikrinti.

Atsargiai su autorių teisėmis!

Trečia – intelektinės nuosavybės ir ypač autorių teisių klausimai turi būti atidžiai išanalizuoti prieš DI įrankio sugeneruotų rezultatų naudojimą.

Didieji internetinės paieškos portalai nurodo informacijos šaltinius, o DI įrankiai šaltinių nenurodo. Galima situacija, kai DI įrankio sugeneruotas turinys bus autorių teisių objektas, o darbuotojas to nežinos ir panaudos įmonės veikloje. Rekomenduojama DI įrankio sugeneruotą tekstą ar jo fragmentus patikrinti paieškos sistemose, tačiau dėl paieškos sistemų ribotumo tai visiškai šios rizikos neeliminuos.

Autorių teisių neteisėto panaudojimo riziką puikiai iliustruoja „Sostų karų“ knygos autorius George R. R. Martin, John Grisham, Jodi Picoult  ir kitų populiarių grožinės literatūros rašytojų kolektyvinis ieškinys prieš „OpenAI“, dėl autorių teisių pažeidimo kuriant „ChatGPT“. Be kita ko, autoriai teigia, kad „ChatGPT“ kūrime autorių kūrinai naudojami nesąžiningai apmokant DI ir komercializuojant „ChatGPT“ be autorių sutikimo. Šie ieškiniai kol kas tiesiogiai neliečia DI įrankio sugeneruoto turinio naudotojų, kai naudojami rezultatai savyje neturi kūrinių. Idėjos šiai dienai nėra saugomos autorių teisių, tačiau esant tokiai technologijų evoliucijai, teisės kūrimas ir taikymas gali pasisukti naujų teisinių reikalavimų sukūrimo linkme.

Nepardavinėkite roboto „kūrybos“ kaip savo

Kita problema, susijusi su autorių teisėmis ir DI įrankio sugeneruotų rezultatų panaudojimu versle, yra atvejai, kai šie rezultatai pateikiami įmonės klientui, kaip autorių teisių objektai, nors tokiais nėra. DI įrankio sugeneruotas rezultatas, jei savyje neturi žmogaus sukurto kūrinio, nelaikomas kūriniu, kuriam būtų taikoma autoriaus teisių apsauga.

Pavyzdžiui, programuotojas darbdavio klientui kuria kompiuterių programą ir paprašo DI įrankio sugeneruoti išeities kodą. Klientui šis kodas parduodamas kaip originalus žmogaus kūrybinės veiklos rezultatas, nors toks nėra. Suklaidintas Klientas investuoja į produkto platinimą, pardavinėja savo produktą, kaip unikalų, autorių teisėmis apsaugotą kūrinį ir teikia dėl to garantijas savo klientams. Staiga išaiškėja, kad didelė dalis kodo yra sugeneruota DI įrankio, kodą kažkas paskelbia viešai ir konkurentai jį pradeda naudoti. Toks kodas autorių teisėmis nesaugomas, nes kūriniais laikomi tik tokie objektai, kurie sukurti žmonių, o ne robotų. Galbūt galima pasvarstyti apie žalos išreikalavimą iš ją nutekinusio asmens dėl konfidencialios informacijos nutekinimo, tačiau uždrausti šios kodo dalies naudojimo tretiesiems asmenims, tikėtina, nepavyks. Investicijos ne tik neatsiperka, bet verslas taip pat patiria ir žalą, įskaitant ir žalą reputacijai.

Siekiant suvaldyti šią riziką, rekomenduojama darbdaviui patvirtinti instrukcijas dėl DI įrankio naudojimo, kuriose būtų draudžiama naudoti tokį įrankį be tiesioginio vadovo raštiško sutikimo. Taip pat verta peržiūrėti sutartis su klientais, ir jei DI įrankio sukurtas turinys yra naudojamas teikiant paslaugas, aiškiai susitarti dėl tokių rezultatų naudojimo galimybės ir rizikų pasiskirstymo. Kitu atveju, įmonė gali sulaukti ne tik pretenzijos dėl kainos mažinimo, bet ir reikalavimo atlyginti žalą.

Išverskite roboto kalbą į „žmogišką“

Penkta, rekomenduojama išversti DI įrankio sugeneruotą turinį į žmonių kalbą. DI įrankių robotizuotos kalbos problema įvardijama, kaip „asmeninio prisilietimo stoka“. Dažnai DI įrankio sugeneruotas tekstas turinio atžvilgiu būna teisingas ir nuoseklus, tačiau galima jausti roboto kalbėjimo toną.

Tokia „asmeninio prisilietimo stoka“ laiškuose klientui, produktų aprašymuose, gali rodyti atsainų verslo požiūrį į klientą, mažinti produkto ar komunikacijos suprantamumą ar kliento informuotumą. Instrukcijose darbuotojams dėl DI įrankių naudojimo turėtų būti nurodymas sugeneruotą turinį peržiūrėti ir adaptuoti į „žmonių kalbą“.   

Balansas!

Šešta, pravartu atrasti balansą tarp DI įrankių naudojimo ir kūrybinės veiklos. Per didelė priklausomybė nuo DI įrankių gali slopinti darbuotojų kūrybingumą ir inovacijas komandoje. Taip pat ne retai darbdavys investuoja į DI įrankių naudojimą, mokymus, kaip efektyviai naudoti įrankį tam, kad padidintų darbo efektyvumą. Darbuotojai, tuo tarpu, išmokę naudoti DI įrankius, tą patį darbą padaro, pavyzdžiui, 10 kartų greičiau, o likusį laiką nebedirba. Darbdavio tikslas investuoti į efektyvumą nepasiteisina, nes darbuotojas daugiau darbo nepadaro, ir investicijos neatsiperka. Šią riziką padėtų suvaldyti didesnė darbo atlikimo kontrolė ir aptarimas su darbuotoju, kaip išlaikyti balansą tarp padidėjusios vertės darbdaviui ir darbuotojo gerovės didinimo.

Darbuotojų informavimas turi esminę reikšmę valdant rizikas

Aukščiau išvardintos taisyklės turėtų būti įtrauktos į darbdavio patvirtintas instrukcijas, o darbuotojai, turėtų būti supažindinti su šiomis instrukcijomis, išlaikant įrodymus apie supažindinimą. Tokiu būdu būtų ne tik didinamas darbuotojų sąmoningumas dėl pažangių technologijų naudojimo rizikų, bet ir palengvinta galimybė darbdaviui įrodyti konkretaus darbuotojo neteisėtus veiksmus.

Tekstą parengė Asta Macijauskienė, ILAW LEXTAL partnerė, advokatė

Back to top button