Tech+LawUniversitetai

Gyvenimas su dirbtinio intelekto asistentais: konferencijos apžvalga

2024 m. kovo 15 d. Vilniaus universiteto Mažojoje auloje vyko Vilniaus universiteto Teisės fakulteto mokslininkų dr. Pauliaus Jurčio ir dokt. Godos Strikaitės-Latušinskajos, kartu su partneriu – Prof. dr. S. Kozuka iš Japonijos Gakushuin universiteto – organizuota konferencija apie rizikas, iššūkius ir galimybes, sąlygojamus dirbtinio intelekto (DI) agentų naudojimo.

Konferencijos tikslas buvo paskatinti tarpdisciplinines diskusijas apie DI padėjėjų ir agentų plitimą visuomenėje. Tuo tikslu konferencijoje dalyvavo DI asistentų ir padėjėjų kūrėjai, teisės mokslo ir praktikos ekspertai bei filosofai iš keturiuose žemynuose esančių valstybių: Lietuvos, JAV, Monako, Japonijos, Australijos ir Pietų Afrikos. Šioje konferencijoje taip pat buvo siekiama apjungti praktines DI padėjėjų kūrėjų patirtis su teorinėmis, filosofinėmis įžvalgomis bei pateikti konkrečius pasiūlymus teisiniam DI padėjėjų ir agentų reglamentavimui.

Konferencijos pradžioje Gakushuin universiteto Tokijuje Prof. dr. S. Kozuka pristatė Japonijos vyriausybės „Moonshot“ projektą – ,,Visuomenės, kurioje žmonės nepriklauso nuo kūno, smegenų, erdvės ir laiko apribojimų, įgyvendinimas iki 2050 m.”. Šiame projekte dalyvauja net septyniolika didžiausių Japonijos universitetų, bendradarbiaujančių su įvairiais partneriais, tarp kurių taip pat ir Vilniaus universitetu.

Konferencijos pradžioje sveikinimo žodžius sakė Vilniaus universiteto prorektorius prof. dr. Valdas Jaskūnas ir Vilniaus universiteto Teisės fakulteto prodekanė doc. dr. Vigita Vebraitė, kurie pasidžiaugė, jog šimtmečius skaičiuojančiose Vilniaus universiteto Mažosios aulos erdvėse bus diskutuojama apie proveržio inovacijas ir geresnės ateities kūrimą.

Po to sveikinimo žodį tarė ir vienas „Moonshot“ projekto vykdytojų – prof. dr. S. Kozuka. Jis atskleidė, jog viena iš septynių sudėtinių ,,Moonshot” projekto dalių yra orientuota į visuomenės, galinčios saugiai ir patikimai naudoti kibernetinius avatarus, sukūrimą.

Prof. dr. S. Kozuka pirmoje savo pranešimo dalyje susirinkusiems klausytojams pristatė skirtingas avatarų rūšis: pvz., virtualiame pasaulyje veikiančius avatarus, fizinių asmenų ar asmenų grupių valdomus avatarus, autonomiškai veikiančius avatarus ir robotus, taip pat avatarus (robotus) su žmogaus išvaizda (humanoidus), su konkretaus asmens išvaizda susijus avatarus ir avatarus, kurių negalima susieti su konkrečiu asmeniu bei avatarais galimus laikyti prietaisus, naudojamus ant žmogaus kūno arba jo viduje (pvz., sensorizuoti implantai ar sensorizuotos tabletės, padedančios sekti žmogaus fizinės būklės pokyčius).

Prof. dr. S. Kozuka pabrėžė, jog teisinių tyrimų kontekste pastebima, kaip tobulėjančios skaitmeninės technologijos pamažu naikina skirtumus tarp asmens (kaip teisinių santykių subjekto) ir daikto (kaip teisinių santykių objekto). Jis nurodė, jog daikto ir asmens sąvokų atribojimas buvo itin akivaizdus XIX a. pagrindus turinčioje vokiečių teisės tradicijoje. Norėdamas iliustruoti šių sąvokų suartėjimą, prof. dr. S. Kozuka pateikė keletą vaizdingų pavyzdžių: kai naudojami prietaisai, didinantys asmens galimybes (pavyzdžiui, sporte), tokie, kurie įgalina asmenis būdami jų kūne (medicinos prietaisai, skirti naudoti ant žmogaus kūno ar net integruoti į žmogaus kūną), taip pat prietaisai, priimantys sprendimus asmens vardu bei savarankiškai su kitais asmenimis ar kitais avatarais bendraujantys avatarai.

Savo pranešimą prof. dr. S. Kozuka baigė iškėlęs keletą reikšmingų teisinių klausimų apie skaitmenines ir DI technologijas, naudojamas asmenų gebėjimams plėsti ir stiprinti. Pirma, jis paragino atsižvelgti į atvejus, kai naudojant generatyvinį DI sukuriamas įspūdis, jog tikras asmuo generuoja turinį bei kai pasitelkiant avatarus sukuriamas subjektas, kuris elgiasi taip, tarsi būtų nepriklausomas nuo asmens. Antra, kalbėdamas apie nykstančią ribą tarp asmens ir daikto, prof. dr. S. Kozuka pasiūlė persvarstyti privatinės teisės sistemos pagrindus. Pavyzdžiui, kas turėtų būti laikoma asmeniu, o kas daiktu? Trečia, jis pasiūlė įvertinti, ar „į žmogų orientuotas“ požiūris į duomenų panaudojimą būtų tinkamas metavisatai ar DI priemonių kūrimui.

Pirmojoje konferencijos dalyje buvo aptarti  konkretūs DI asistentų pavyzdžiai.

Vilniaus universiteto Teisės fakulteto doktorantė Goda Strikaitė-Latušinskaja pasidalino savo žiniomis apie DI sprendimų pritaikymą teismų darbe. Ji nurodė, kad teismai transformuojasi ir vis imliau žiūri į naujų technologijų pritaikymą. Teismuose naudojamus DI sprendimus dokt. G. Strikaitė-Latušinskaja suskirstė į tris grupes. Pirma, pagalbiniai DI asistentai (angl. supportive AI assistants), skirti padėti ir patarti (pvz., pokalbių robotai tokie kaip Ask a Lawyer programėlė). Antra grupė – tai DI asistentai, kurių tikslas yra pakeisti funkcijas, tradiciškai atliekamas žmonių (pvz., IBM kompanijos sukurtas DI asistentas  ,,OLGA”, naudojamas Vokietijos teismuose, kurio pagalba teisėjai ir tarnautojai gali greičiau atsijoti tūkstančius dokumentų ir naudoti konkrečius paieškos kriterijus, norėdami rasti aktualią informaciją iš įvairių dokumentų, taip pat technologijos, gebančios vidutiniškai 79 % tikslumu nuspėti Europos Žmogaus Teisių Teismo teismų sprendimų rezultatus bei tokios, kurios numato bylos baigtį JAV Aukščiausiajame teisme 70,2 proc. tikslumu).

Trečioji grupė – pažangūs DI asistentai (angl. disruptive AI assistants), gebantys atlikti tam tikras funkcijas, kurias tradiciškai atlikdavo teismo institucijų darbuotojai. Pvz., Kinijos LR Hangdžou interneto teisme įdiegta STCRS programa, kuri, analizuodama šalių pateiktus įrodymus, savarankiškai atrenka bylai reikšmingą informaciją ir pateikia rekomendaciją dėl sprendimo. Po to teisėjas atitinkamai gali patvirtinti siūlomą rekomendaciją, pakeisti ją, jei nesutinka su tam tikromis jos dalimis, arba atmesti visiškai. Kitas pristatytas pavyzdys – COMPAS programa, naudojama kai kuriose JAV teisėsaugos institucijose, kurios tikslas – pateikti tikimybę, kiek asmuo linkęs pakartotinai daryti nusikalstamas veikas, skalėje nuo 1 (maža rizika) iki 10 (didelė rizika). Ši išvada vėliau pateikiama teisėjui, kuris priima sprendimą dėl bausmės skyrimo.

Danielius Stasiulis („BitDegree“ vadovas bei bendraįkūrėjas) pasidalijo mintimis apie DI asistentų taikymą švietimo srityje. D. Stasiulis paskutinius septynerius metus tyrinėjo, kaip naujos technologijos, tokios kaip blokų grandinės (angl. blockchain), metavisata ar DI galėtų patobulinti švietimo sektorių. D. Stasiulio įmonė taip pat yra sukūrusi daugybę produktų, orientuotų į tokią skaitmeninę transformaciją. Visgi, jis apgailestavo, jog tradicinės švietimo sistemos yra ganėtinai abejingos skaitmeninių technologijų taikymui.

Pristatydamas, kaip asmenys galėtų mokytis pažangiose švietimo sistemose, D. Stasiulis pabrėžė, jog mokantis bendravimas palaipsniui pereina prie sąveikavimo su DI agentais. Be to, ateityje mes kiekvienas turėsime ne po vieną, bet po keletą DI asistentų, padedančių mums sąveikauti su mus supančiu pasauliu.

D. Stasiulis taip pat įvardijo DI asistentus kaip galimą asmenų stebėjimo ir profiliavimo sistemą bei aptarė tokias iš to kylančias rizikas kaip duomenų nutekėjimas ar netinkamas algoritmų programavimas. Anot jo, asmeninių blokų grandinių technologijų naudojimas galėtų išspręsti šias problemas, kadangi tokiu būdu būtų galima kontroliuoti algoritmą bei pasitikėti juo.

Kalbėdamas apie švietimą, D. Stasiulis nurodė, jog švietimo srityje efektyviausias būdas mokytis yra individualaus pobūdžio (1×1) bendravimas su mokiniu bei individualios mokymosi sesijos. Vis dėlto jos nėra įmanomos dėl resursų trūkumo. Šią problemą bandoma spręsti sumažinant žmogaus mokytojo laiko sąnaudas. Tuo tarpu ,,DI mokytojas” gali visiškai pakeisti sąveiką su mokiniu: vietoje tam tikros trukmės mokymosi sesijų grupėse, DI pagalba gali būti atveriamos galimybės integruoti mokymosi procesą į kasdienę veiklą. Anot D. Stasiulio, turėtume iš naujo apibrėžti ar net iš naujo atrasti, kaip turėtų būti suprantama švietimo sistema.

Kitas diskusijos dalyvis, Jouko Ahvenainen (įmonės „Prifina“ bendraįkūrėjas), apžvelgė įmonės „Prifina“ kuriamą asmeninių DI asistentų modelį, kuriuo siekiama sukurti naujas galimybes asmenims panaudoti savo pačių duomenis. Jo įmonėje pagrindinis dėmesys šiuo metu skiriamas vystant galimybę asmenims susikurti savo pačių DI asistentus, orientuotus į sveikatos ir gerovės būklės sekimą bei tobulinimą.

„Prifina“ kuriamas duomenų panaudojimo modelis suteikia galimybę kiekvienam žmogui agreguoti savo duomenis iš  įvairių šaltinių (pvz., išmaniųjų prietaisų, duomenis, generuojamus naudojant įvairias mobiliąsias programėles, taipogi savo sveikatos duomenis ir ligos istoriją). Tuomet, surinkus savo pačių duomenis į asmeninę duomenų paskyrą atsiveria naujos galimybės kurti DI asistentus ir  bičiulius (angl. AI buddies), kurie veiktų išimtinai kiekvieno asmens turimų duomenų pagrindu.

Pasak J. Ahvenainen, jo įmonės siekiamas rezultatas – sukurti į žmogų orientuotą duomenų ekosistemą, kur kiekvienas asmuo galėtų savo duomenis ,,atverti” DI padėjėjų/bičiulių pagalba. Šis į žmogų nukreiptas duomenų ir DI modelis reikalauja dėmesį kreipti į naujo pobūdžio DI programėles, ir tai, ko nori būtent konkretus vartotojas, o ne tai, kaip tam tikrą skaitmeninę paslaugą teikianti įmonė galėtų maksimizuoti savo pelną.

Kalbėdamas apie tai, jog žmonijos kuriamų duomenų kiekis nepaliaujamai augs, ir atsižvelgiant ypač į vis populiarėjančius nešiojamus prietaisus bei didėjantį mus supančių sensorių skaičių, J. Ahvenainen pabrėžė, jog labai svarbu yra apibrėžti, kam tie duomenys priklauso, kas gali juos valdyti ir kas gali jais pasinaudoti, kitaip tariant, nustatyti, kam šie dirbtinio intelekto bičiuliai dirba.

Paskutinysis pirmosios diskusijos dalyvis Marijus Andrijauskas („FIRSTPICK Capital“ partneris) nurodė, jog Baltijos valstybių startuolių ekosistema nėra didelė – ją sudaro vos apie 3000 šiuo metu aktyvių startuolių. Šiame taip vadinamame burbule ir yra kuriamos visos inovacijos. Covid-19 pandemijos metu pastebėta startuolių koncentracija būtent technologijų ir medicinos ar sveikatos srityse išlieka aktuali ir po pandemijos. Visgi, anot M. Andrijausko, tai labiau skatina ne technologinės priežastys, o žmonių siekis gyventi ilgiau, būti sveikesniems ir protingesniems.

Kalbėdamas apie investavimą į startuolius DI įrankių kontekste, M. Andrijauskas nurodė, jog dar prieš 6 ar 12 mėnesių, sprendžiant dėl startuolių finansavimo, būdavo tikrinamas jų konkurencingumas visame pasaulyje, atliekamas išsamus patikrinimas ir pan. Tuo tarpu dabar vertindami naują startuolį investuotojai stebi ChatGPT prekyvietę ir tikrina, ar panašių ChatGPT integracijų jau yra sukurta.

M. Andrijauskas pabrėžė pastebimus pokyčius rinkoje: iš investuotojo perspektyvos, anksčiau žmonės spręsdavo, ar verta investuoti, ar rinka yra pakankamai didelė, koks startuolio konkurencingumas, taip pat, kas turėtų būti kiti investuotojai bei kam reikėtų parduoti verslą. Pasirodžius ChatGPT, situacija pasikeitė, mat DI tapo labai paslaugus startuolių paieškose bei jų tikrinime, priimant tam tikrus sprendimus, atliekant matematinius skaičiavimus ir pan. M. Andrijauskas antrino ankstesniems pašnekovams apie duomenų svarbą ir pažymėjo, jog tie rizikos kapitalo fondai, kurie yra labai priklausomi nuo duomenų, gali naudoti DI įrankius visuose investavimo procesuose ir priimti protingesnius investavimo sprendimus.

Pranešėjų diskusijos moderatorius dr. Paulius Jurčys teiravosi, kokios yra galimos kliūtys, užkertančios kelią DI agentų sukūrimui ir pritaikymui. Tarp priežasčių buvo įvardintos techninės kliūtys, investicijų ribotumas, priešinimasis pokyčiams ir nusistovėjęs žmonių mentalitetas. Atsakydama į žiūrovų klausimą, ar tokios Europos Sąjungos iniciatyvos kaip Dirbtinio intelekto aktas yra žingsnis į priekį ar atgal, dokt. Goda Strikaitė-Latušinskaja teigė, jog ES formuojamas požiūris – balanso tarp inovacijų puoselėjimo bei tinkamo žmogaus teisių užtikrinimo paieškos – yra sveikintinas bei toks reguliavimas savaime nestabdo technologinės plėtros, labiau tai reiškia, jog kai kurios iš technologijų turėtų būti pakoreguotos, kad atitiktų šį požiūrį ir Europos Sąjungos keliamus standartus.

Aptarus, kaip galima būtų sukurti aplinką, kurioje vieni dirbtinio intelekto asistentai galėtų keistis informacija su kitais, pirmoji diskusija buvo užbaigta distopine M. Andrijausko mintimi, jog tikėtina, kad ateityje DI programėlės pačios kurs kitas DI programėles, tuo tarpu žmonės neturės šansų konkuruoti su jomis bei taps tik duomenų šaltiniais.

Dirbtinio intelekto sistemos gali būti ir naudingos, tačiau gali sukelti ir nenumatytos žalos.

Antroje konferencijos dalyje buvo aptartos ateities perspektyvos, ar mes reguliuosime dirbtinį intelektą, ar jis reguliuos mus. Sidnėjaus universiteto doktorantė Melanie Trezise, kalbėdama apie DI teisinį subjektiškumą, teigė, jog kartais tai prilyginama mokslinei fantastikai. Anot jos, iš dalies tokią reakciją sąlygoja tai, jog tokie robotai yra dažniausia įsivaizduojami kaip panašūs į žmones – jautrūs, emocingi ir save suvokiantys.

Ji taip pat atkreipė dėmesį, jog mūsų teisinėse sistemose teisės subjektai yra daug įvairesni nei tik žmonės. Tarkime, įmonės, administracinės įstaigos, laivai, gyvūnai yra teisiniai subjektai. Teisinis subjektiškumas, anot jos, ypač iš DI perspektyvos, yra terminas, skirtas patogumui, tai būdas sąveikauti su teise ir administruoti mūsų teisinę sistemą. Kadangi žvelgiant  į šiuos labai skirtingus teisės subjektus, sunku identifikuoti jų bendras savybes, tai turėtų būti suvokiama kaip teisių ir pareigų objektas.

Pristačiusi Saudo Arabijos robotei ,,Sofija” suteiktos pilietybės bei Japonijos roboto ruonių jauniklio Paro, kuriam buvo pasiūlyta ypatinga vieta šeimos registre būti įregistruotam kaip jo kūrėjo sūnui, pavyzdžius, dokt. Melanie Trezise teigė, jog DI gali būti naudojamas žmogaus ketinimams perteikti, tačiau jis gali veikti ir savarankiškai. Anot jos, nors dabartiniai pavyzdžiai, kur DI pakeičia žmogų yra paprasti – pavyzdžiui, DI, nustatantis, ar šviesoforo signalas turi degti raudonas, ar žalias, vis daugėjant valstybiniame sektoriuje DI ir automatizuotoms sistemoms deleguojamų užduočių, kurias anksčiau atlikdavo žmogus – turime vertinti tai plačiau.

Reflektuodama į prof. dr. S. Kozukos pristatytą takoskyrą tarp asmens ir daikto sampratų, ji pasiūlė išskaidyti šią takoskyrą tarp asmens ir daikto sampratų ir identifikuoti platų spektrą tarp šių sampratų bei potencialiai atrasti ten vietą DI.

Kitas diskusijos dalyvis – dr. Mindaugas Civilka (advokatų kontoros TGS Baltic partneris), teigė, jog platesnio matymo stoka buvo pagrindinė klaida priimant Europos Sąjungos Dirbtinio intelekto aktą. Anot jo, DI aktas kritikuotinas dėl nepakankamo pagrindinių DI modelių, duomenų, skaičiavimo galios ir GPT komponentų nuosavybės nagrinėjimo.

Atitinkamai šiuo metu galime išskirti bent keturias reikšmingas sritis: (i) kam priklauso duomenys, (ii) kam priklauso išankstinio mokymo transformatorių skaičiavimo galia, (iii)  kam priklauso modeliai ir (iv) kam priklauso generuojantys išankstinio mokymo transformatoriai.

Kalbėdamas apie technologijų naudojimą iš teisininko perspektyvos, M. Civilka teigė, jog nereikėtų nuvertinti teisininkų pasipriešinimo naujovėms ir pervertinti teisininkų polinkio pateikti net nežymius pokyčius kaip didžiausią inovaciją. Jis teigė matantis naudojamus generuojančius išankstinio mokymo transformatorius kaip pagalbą kasdienei teisinei veiklai. Anot jo, tai, ką įmanoma susisteminti bei sustruktūrizuoti, dirbtinis intelektas padaro geriau nei žmogus. Nepaisant to, kad šios sistemos nėra labai patikimos išmanyti nestruktūrizuotą informaciją bei žodinius duomenis bei suprasti tai, kas slypi už eilučių, tačiau už daugiausia penkerių metų šios sistemos gebės tą perprasti pakankamai gerai.

Šios sistemos taip pat yra prastos mimikuoti bei simuliuoti tai, kaip žmonės priima sprendimus, kadangi žmonės sprendimus priima neracionaliai, taigi dirbtiniam intelektui kyla sunkumų suprasti, kodėl žmonės priima sprendimus remdamiesi ne logika, o emocijomis. Visgi, anot M. Civilkos, už dešimties metų ar net anksčiau DI sistemos gebės ir tai perprasti. Galiausiai, jis pabrėžė poreikį išsamiam požiūriui į DI reguliavimą ir nuosavybę, siekiant spręsti iššūkius ir galimybes, kylančias iš kintančių technologijų.

Paskutinė diskusijos dalyvė Jekaterina Govina (Fintech ekspertė, Response Legal partnerė) teigė, jog finansų srityje DI turi didelį potencialą. Čia DI gali būti taikomas, pvz., sukčiavimo prevencijai, kovai su pinigų plovimu ir sankcijų vengimu. Ji papasakojo apie fintech vienaragio „Revolut“ pristatytą dirbtinio intelekto sprendimą sukčiavimui aptikti: DI agentas „Revolut“ sistemoje stebi operacijas, kuriose įtariamas sukčiavimas, todėl vartotojai turi pateikti papildomos informacijos savo tapatybei patvirtinti. Ši intervencija padeda neleisti vartotojams per klaidą siųsti pinigų sukčiams.

Kitas J. Govinos pristatytas DI taikymo pavyzdys buvo susijęs su skundų ir prašymų, gautų iš klientų ar vartotojų, valdymu. Anot jos, Klarna, Švedijos fintech vienaragis, pranešė, jog naudoja DI agentus užklausoms ir skundams tvarkyti. Taip sutaupoma apie 700 darbo vietų.

Galiausiai, DI yra vis dažniau taikomas investicijų ir turto valdymo sektoriuje (,,WealthTech”). Šiuo atveju, DI agentai padeda teikti investavimo patarimus, analizuodami kliento rizikos profilį ir siūlydami atitinkamus investavimo modelius. Priklausomai nuo kliento rizikos tolerancijos, DI agentai gali rekomenduoti įvairias investavimo strategijas, pritaikytas individualiems klientų pageidavimams. Anot J. Govinos, ši dirbtinio intelekto pritaikymo sritis jau veikia ir tikimasi, kad ateityje ji toliau plėsis.

J. Govina pažymėjo, jog pagrindiniai dirbtinio intelekto platesnio naudojimo apribojimai šiose srityse yra reguliavimas ir atsakomybė. Dirbtinio intelekto naudojimas finansų paslaugų sektoriuje nereiškia, kad už nenumatytas ar neigiamas DI agentų sukeltas pasekmes atsakomybė tenka DI agentams; priešingai, galutinė atsakomybė bet kuriuo atveju tenka pačioms finansų įstaigoms.

Diskusiją moderavęs Martynas Bieliūnas (Privacy Partners vykdantysis partneris ir LDAPA valdybos narys) teiravosi, kaip reikėtų tinkamai suvaldyti kenksmingas dirbtinio intelekto programas. Atitinkamai tarp atsakymų nuskambėjo idėja, jog teisinėje sistemoje trūksta aiškių atsakymų, kas kontroliuoja ir naudoja dirbtinio intelekto įrankius, taigi ir kyla neaiškumų dėl atsakomybės. Įvairios šalys, įskaitant duomenų operatorius, programų operatorius ir naudotojus, galėtų dalytis atsakomybe už dirbtinio intelekto rezultatus.

Antroji diskusija buvo užbaigta mintimis, jog, siekiant tinkamai subalansuoti inovacijas bei jų reguliavimą, reikalingos atviros diskusijos ir kūrybiškas mąstymas bei eksperimentavimas ir bandymai smėlio dėžėse (angl. sandboxes), siekiant suteikti galimybes inovacijoms, tačiau tuo pačiu valdyti galimas rizikas.

Paskutinioji renginio dalis buvo skirta dirbtinio intelekto priemones savo kūryboje pasitelkiančio menininko iš Jungtinių Amerikos Valstijų Davey Whitcraft ir futuristės Monikos Bielskytės diskusijai.

Pokalbio metu buvo akcentuojama ,,dirbtinio intelekto” terminologija, o būtent kvestionuojant potekstę, kad žmonės turi monopolį apibrėžiant intelektą. Kalbėdama apie tai, kaip suvokiamas dirbtinumas, Monika Bielskytė pabrėžė intelektualinę prigimtį ne žmonėms būdingų dalykų, tokių kaip medžiai ir planetų sistemos. Ji taip pat pabrėžė, kaip svarbu pripažinti intelektą, viršijantį žmogaus standartus, ir mokytis iš vietinių kultūrų perspektyvų.

Į gyvenimą orientuotas afrikietiškas modelis buvo paminėtas kaip holistiškesnio požiūrio į technologijų plėtrą pavyzdys, atsižvelgiant į realaus pasaulio suvaržymus ir sprendimų poveikį. Anot Monikos Bielskytės, dirbtinio intelekto vystymui būtina atsižvelgti į ryšius su kitomis gyvybės rūšimis, planetos interesus ir galbūt platesnes kosmines perspektyvas.

Diskusijoje buvo pabrėžiama, jog dirbtinis intelektas turėtų ne dar labiau izoliuoti asmenis, o priešingai – suburti juos kartu, kad būtų švenčiama įvairovė ir smalsumas. Taip pat buvo kalbama apie susirūpinimą dėl patirčių automatizavimo ir galimo žmogaus kūrybiškumo praradimo susidūrus su dirbtinio intelekto sukurtu turiniu. Visgi kartu buvo pažymėta, jog dirbtinis intelektas turi potencialą atverti naujas kūrybines galimybes, ypač tokiose srityse kaip mokslinės fantastikos pasaulio kūrimas.

Galiausiai, dirbtinio intelekto ir žmogaus kūrybiškumo sąlytis gali būti naudojamas, siekiant sukurti skirtingus ateities scenarijus, o ne atkartoti praeities ar dabarties realijas. Diskusijos su auditorija metu buvo koncentruojamasi į sąmoningumo koncepciją. Buvo pažymėta, jog sąmonė kyla iš kompleksiškų sąveikų tarp organizmo ir jo aplinkos, o ne vien iš matematinių skaičiavimų ar duomenų analizės. Trečioji renginio dalis buvo užbaigta mintimi, jog kritinis mąstymas ir klausimų kėlimas yra būtini pažangai, tuo tarpu daugiausia dėmesio reikėtų skirti teigiamų alternatyvų paieškai, o ne susitaikymui su status quo.

Konferencijos įrašas prieinamas čia.

Tekstą parengė dr. Paulius ir Jurčys bei dokt. Goda Strikatė-Latušinskaja

Back to top button