Dirbtinis intelektas (DI) įgauna vis daugiau svarbos. Kaip užtikrinti, kad jis atitiks visus mūsų poreikius? Kaip sukurti pagrindinius etikos principus atitinkantį DI ir kokie tie principai turėtų būti? Apie DI įtaką IQ apžvalgininkė Liepa Žeromskaitė kalbėjosi su DI tyrimų tinklo ELLIS viena įkūrėjų ir viceprezidente, taip pat fondo „ELLIS Alicante“, orientuoto į etišką, atsakingą ir socialinei gerovei skirtą DI, viena įkūrėjų ir mokslo direktore Nuria Oliver.
– Su „ChatGPT“ atsiradimu visi tiesiogiai pamatėme, ką galime nuveikti su DI. Prieš tai irgi plačiai jį naudojome, tačiau nebuvo taip akivaizdu, kad už mūsų veiksmų slepiasi DI. Kaip matote DI tobulėjimą ateityje?
– Manau, kad šį klausimą reikėtų šiek tiek išgryninti. DI kaip disciplina egzistuoja nuo 1950-ųjų. DI metodai ir algoritmai jau ilgą laiką yra mūsų kasdienybės dalis. Mes negalėtume surasti jokios informacijos internete be mašininio mokymosi (angl. machine learning) algoritmų, kurie sutrauktų duomenis ir pateiktų aktualų turinį. Negalėtume turėti jokių filmų, knygų ar produktų rekomendacijų be DI. Kai fotografuojame ir ekrane matome nedidelį stačiakampį, rodantį, kur yra veidai, tai yra DI algoritmas – joks nykštukas mobiliajam telefonui nesako, kur yra žmogus. DI yra nuolatinė mūsų kasdienybės dalis, bet ir nematoma – mes iš tiesų ne visada suvokiame, kad jis ten yra.
Gali naudoti DI metodus skirtingoms užduotims atlikti – klasifikuoti duomenis, juos grupuoti, daryti prognozes, pavyzdžiui, apie orus, akcijų rinkas ir t. t. Taip pat yra kita DI klasė, vadinama generatyviniais modeliais, ir pagrindinis tokių modelių skirtumas, palyginti su kitais, yra tai, kad jie gali kurti turinį – ne interpretuoti ar analizuoti jau esamus duomenis, bet juos kurti. Šie modeliai egzistuoja jau dešimtmečius, bet jie niekada nebuvo kaip žmogus, t. y. niekada nebuvo tokie kompetentingi kaip mes, žmonės. Tačiau pastaraisiais metais generatyvinių modelių našumas augo, ir dabar su jais mes galime kurti tekstą, paveikslėlius, muziką, vaizdo įrašus panašiu lygiu, kaip galėtų ir žmogus.
Mes, žmonės, esame kur kas daugiau nei kalba, ir gebame daugiau, nei tik sudaryti sakinius.
Manau, kad dėl to šie modeliai tapo tokie populiarūs ir taip pat turi tokią didelę įtaką visuomenei, nes iki šiol dar niekada nebuvo situacijos, kai ne žmonės galėtų kurti turinį taip pat kaip ir žmonės. Žvelgiant iš šios perspektyvos, tai yra istorinis momentas, ir manau, kad dėl to mes apie tai dabar kalbame ir dėl to visuomenė dabar suvokia, kad DI egzistuoja, nors DI kas dieną naudojame jau daug metų. Alanas Turingas, laikomas DI tėvu, 1950 m. parašė didelio susidomėjimo sulaukusį straipsnį, kuriame bandė nusakyti, kas yra DI, ir jis aprašė testą, skirtą atpažinti, ar mes pasiekėme DI, ar ne. Tas testas vadinamas Turingo testu. Testas aiškina, kad, jei esi žmogus ir bendrauji su sistema pasitelkdamas tekstą, o sistema tau atsako – jei tu, kaip žmogus, nesugebi atskirti, kada atsakymai ateina iš žmogaus ir kada iš algoritmo, tas algoritmas laikomas turintis DI. Iš šios perspektyvos galėtume galvoti, kad „ChatGPT“ išlaiko Turingo testą, nes jis yra toks sudėtingas ir geba pateikti gerai suformuluotus atsakymus, tarsi juos būtų parašęs žmogus.
Bet tai yra labai siauras DI apibrėžimas. Mes, žmonės, esame kur kas daugiau nei kalba, ir gebame daugiau, nei tik sudaryti sakinius. Mes turime daug intelekto formų: suvokiame savo aplinką, galime reaguoti, prisitaikyti, nuolatos mokytis, mes turime socialinį ir emocinį intelektą, muzikalumą, logiką. Visų šių gebėjimų „ChatGPT“ neturi. Manau, svarbu suprasti, kad tai vis dar yra labai ribota sistema, nors ir sukuria iliuziją, jog yra labai sudėtinga, nes iki šiol dar nieko panašaus neturėjome.
Tad kaip tokio DI įtaka pasireiškia visuomenei ir ko galime tikėtis? Manau, kad įtaka bus didžiulė. Mes kaip visuomenė bandome suvokti, kaip norime naudoti šias galingas sistemas tokiu būdu, kuris visuomenei būtų pozityvus, kad neturėtume neigiamų, nenumatytų pasekmių. Tai sudėtingas klausimas, bet ir labai svarbus, ir tai yra viena priežasčių, kodėl įkūrėme „ELLIS Alicante“ padalinį. Jis skirtas tirti DI, kad jis būtų plėtojamas atsakingai ir etiškai. Mes esame tokiame istorijos taške, kai žmogui įsikišti į tolesnį DI tobulėjimą yra būtina.
– Paminėjote etinius DI aspektus. Amerikiečių rašytojas Isaacas Asimovas rašė apie tris pagrindinius robotų principus (nepakenkti žmogui, paklusti žmogui ir ginti save, kiekvienas iš principų yra žemesnis už kitą eilės tvarka – IQ past.), bet dabartiniame kontekste tokios ir panašios taisyklės atrodo gana naivios. Taip pat minėjote galimus nenumatytus neigiamus padarinius – DI juk negali atskirti, kas yra gera ir kas bloga, mes turime jam tai pasakyti. Kaip įmanoma suderinti DI ir etiką?
– Tai padaryti yra būtina. DI tyrimuose kuriama labai daug etikos sistemų. Vienas akronimas, kuris padeda atrinkti, kuriuos elementus mums būtina apsvarstyti ir priimti tobulinant AI, yra FATEN. Ką jis reiškia?
F reiškia, kad reikia sukurti teisingas (angl. fair) sistemas, kurios nediskriminuoja, neužaštrina visuomenėje egzistuojančios diskriminacijos. Kodėl DI galėtų diskriminuoti? Nes jie mokosi iš duomenų, o duomenys yra šališki, nes visuomenės yra šališkos. Bet taip pat DI gali diskriminuoti, nes DI algoritmai nėra gerai sukurti, arba yra netinkamai naudojami. „ELLIS Alicante“ ties tuo dirbame ir kuriame algoritmus, garantuojančius, kad nebūtų diskriminacijos.
A turi tris reikšmes, pirmoji – autonomija. DI visada privalo gerbti žmogaus autonomiją, tai yra pagrindinis Vakarų etikos principas, teigiantis, kad žmonės turi būti laisvi nuspręsti dėl savo minčių ir veiksmų. Drįsčiau teigti, kad šiandien daugybė DI algoritmų, su kuriais susiduriame, šį principą pažeidžia. Turime turinį, kuris bando mumis manipuliuoti – antraštinis masalas (angl. click-bait), personalizuota reklama, socialinės medijos ir vaizdo žaidimai naudoja daugybę strategijų, kad mus paverstų priklausomais. A taip pat reiškia intelekto plėtrą (angl. augmentation), o ne jo pakeitimą. Apie DI reikia galvoti kaip apie įrankį – kaip jis galėtų padėti mums, žmonėms, atskleisti savo potencialą, pasiekti daugiau, gyventi geresnį gyvenimą? Bet ne pakeisti žmones. Trečioji A reikšmė – atsakomybė (angl. accountability). Turime aiškiai žinoti, kas atsakingas už DI priimamų sprendimų pasekmes.
T turi dvi reikšmes. Pirmoji – pasitikėjimas (angl. trust). Jei nepasitikime sistemomis, akivaizdu, kad jų nenaudosime, jos turi užsitarnauti mūsų pasitikėjimą. Antroji – skaidrumas (angl. transparency). Naujausios DI sistemos yra labai sudėtingos. Pavyzdžiui, apskaičiuota, kad „ChatGPT“ naudojamame mašininio mokymosi modelyje yra 175 mlrd. parametrų. Tai nesuvokiama, nėra tokio žmogaus, kuris suvoktų, ką „ChatGPT“ daro, kodėl jis generuoja tokį tekstą, kaip jis veikia. Bet mes turime suprasti, kaip toks algoritmas veikia. Pavyzdžiui, DI algoritmai naudojami vėžiui aptikti pagal rentgeno nuotraukas – algoritmas žiūri į daugybę rentgeno nuotraukų ir skirsto, ar čia yra vėžys, ar ne. Turime žinoti, kodėl? Negalime tiesiog pasitikėti, nes „algoritmas taip pasakė“, turime gebėti tai paaiškinti. Todėl dabar didelis DI tyrimų laukas skirtas jam paaiškinti.
Europa šiuo klausimu prisiima lyderės poziciją būdama pirmuoju regionu pasaulyje, kuris priims DI reguliaciją.
E taip pat turi kelias reikšmes. Taip pritaikomas geranoriškumo principas – kaip išnaudoti DI potencialą nepamirštant tvarumo, įvairovės. Taip pat E reiškia investicijas į švietimą (angl. education). Visuomenėse iki šiol yra mažai supratimo, kas yra DI, nors, kaip ir minėjau, jį naudojame kiekvieną dieną. O tai yra pavojinga, nes kaip visuomenė turime priimti sprendimus apie tai, kokios technologijos norime, ko ja pasieksime. To negalime padaryti, jei jos nesuprantame. DI yra ketvirtosios revoliucijos priešakyje. Jis iš pagrindų keičia kiekvieną visuomenės aspektą, įskaitant darbo rinką. Visos profesijos yra labai veikiamos DI, ir jei neinvestuosime į švietimą, šis pokytis bus labai sunkus labai dideliam skaičiui žmonių, nes jie negalės prisitaikyti, naudoti DI ir jie galbūt praras savo darbus. Galbūt neturėsime pakankamai žmonių, turinčių atitinkamą išsilavinimą, kurie galėtų atliepti XXI a. visuomenės poreikius.
N reiškia nepiktybiškumą, tai yra kaip įmanoma labiau sumažinti neigiamą DI įtaką: išsaugoti privatumą, užtikrinti atsakomybę, palaikyti našumą ir užtikrinti saugumą.
Tokie yra svarbiausi elementai, kaip užtikrinti etišką DI. Kai pradedi galvoti, kur galėtum DI naudoti, reikėtų atsiminti visas šias raides ir šių elementų laikytis. ES svarsto dėl DI reguliacijos, vadinamos „DI aktu“, kurioje daugelis šių sąvokų yra įtraukta, taip pat vertinimas rizikų, su kuriomis visuomenė galėtų susidurti – nuo sistemų, kurios yra uždraustos, iki sistemų, kurioms reikėtų tik minimalios priežiūros. Tad Europa šiuo klausimu prisiima lyderės poziciją būdama pirmuoju regionu pasaulyje, kuris priims DI reguliaciją.
– Norėčiau grįžti prie dviejų jūsų paminėtų aspektų. Pirmasis yra apie atsakomybę – kas atsako už DI priimamų sprendimų pasekmes? Jei tos pasekmės yra blogos, pavyzdžiui, jei konflikte naudojamas DI apsiskaičiuoja ir nukenčia nekalti žmonės, arba dirbant su sunkiąja technika įvyksta tragedija, arba įvykus savavaldžio automobilio avarijai – ar visada atsakingas yra žmogus, davęs DI tą nurodymą?
– Tai labai sudėtingas klausimas, nes šiandienės sistemos yra labai sudėtingos. Nėra vieno žmogaus, kuris sukūrė sistemą – skirtingi jos elementai ateina iš įvairių įmonių. Taip pat yra ir duomenys, tad iškyla klausimas, kokie duomenys naudojami? Tad nėra visiškai aišku, kaip ta atsakomybė veikia. ES kuria DI atsakomybės direktyvą suprasdama, kaip sudėtinga tą atsakomybę kam nors priskirti. Bet vien faktas, kad tai yra sudėtinga, nereiškia, kad tos atsakomybės neturėtų būti apskritai – paprasčiausiai turime apie tai galvoti ir dėl to spręsti. Žinoma, kad atsakomybė už neigiamas DI sprendimų pasekmes turi būti. Šis klausimas nebūtinai apima tik konfliktus – jis iškyla ir kasdieniame gyvenime. Kokia yra plačiai naudojamo DI įtaka, socialinių medijų įtaka mūsų psichinei sveikatai? Kas už tai atsakingas?
– Antrasis paminėtas aspektas – profesijos. Prieš kelias dešimtis metų, kai gamyklose darbuotojus pradėjo keisti mašinos, buvo kalbėta, kad žmonės turėtų gręžtis į kūrybines profesijas arba reikalaujančias aukštesnio išsilavinimo. Tačiau dabar DI, pavyzdžiui, DALL-E, gali generuoti paveikslėlius, „ChatGPT“ gali rašyti. Jūsų vertinimu, kurios profesijos susiduria su didžiausia rizika?
– Minėjau, kad mes esame ketvirtosios pramonės revoliucijos viduryje. Prieš tai buvusios pramonės revoliucijos taip pat smarkiai pakeitė visuomenes, įskaitant ir darbo rinką. Ši revoliucija veikiausiai paveiks tas profesijas, kurios anksčiau nebuvo tų pokyčių paliestos – tai yra vadinamųjų baltųjų apykaklių profesijos, susijusios su žiniomis ir informacija, o ne su fiziniu darbu. Pavyzdžiui, teisininkai, žurnalistai, gydytojai, mokytojai ir t. t. Kaip ir sakiau minėdama FATEN principus, mes kaip visuomenė turime stengtis naudoti DI taip, kad jis padėtų žmonėms geriau atlikti savo darbą, išnaudoti savo potencialą, tapti našesniems ir dėl to turėti daugiau laisvo laiko nei anksčiau – nebūtinai pakeisti žmones. Bet tai reikalauja labai didelių investicijų į švietimą, pradedant nuo pradinių klasių ir baigiant profesionalais, kurių profesijos bus paveiktos, ir politikų, kad šie priimtų atitinkamus sprendimus.
Praeitos revoliucijos atėjo kartu su socialinėmis revoliucijomis, ir galėjome prisitaikyti prie tų technologinių pokyčių. Tad galbūt dabar irgi bus socialinė revoliucija – visuomenės atsakas į šį technologinį tobulėjimą ir kaip mes jį norime naudoti. Reikia suprasti, kad ne visas technologinis tobulėjimas reiškia progresą, ir ne visos technologijos prie progreso prisideda, ne visos gerina žmonių gyvenimus. O mes norime, kad šios technologijos prisidėtų ir gerintų ne tik žmonių, bet ir visos planetos gyvenimą. Kaip visuomenė turime spręsti, ar tai prisideda prie progreso, ar ne? Jei ne, galbūt neturėtume to daryti – juk niekas mūsų neverčia.
Mašininio mokymosi sistemos geba puikiai apdoroti milžiniškus kiekius duomenų, juos grupuoti, aiškinti, struktūruoti, prognozuoti. Tai yra kažkas, ką anksčiau galėjo padaryti tik žmonės – dabar mašinos tai gali geriau už mus. Tokias profesijas taip pat paveiks.
Tad galbūt dabar irgi bus socialinė revoliucija – visuomenės atsakas į šį technologinį tobulėjimą ir kaip mes jį norime naudoti.
– Su „ChatGPT“ atsirado ir žinučių, kad DI tampa sąmoningas. Ši tema vis dar apipinta daugybe mitų, ją supa baimė. Ar manote, kad ateityje įmanoma turėti sąmoningą DI?
– Nežinau, man atrodo, tai yra įdomios diskusijos arba net mokslinė fantastika, bet pirma reikėtų atsakyti į klausimą, kas yra sąmoningas. Jei būti sąmoningam reiškia kažką, kas yra išskirtinai būdinga tik biologinėms būtybėms, tada techninė įranga niekada nebus sąmoninga. Tad turime sutarti, ką tai reiškia. Mano požiūriu, DI tėra mašina – laidai, procesoriai, kalbantys nuliukais ir vienetukais, kuriuos mes ištreniravome elgtis taip, kad jie būtų suprantami. Iš to teigti, kad ši mašina suvokia savo egzistenciją taip, kaip ir biologinė būtybė, man atrodo, yra nemažas pervertinimas.
Tai taip pat susiję su tuo, ką minėjau anksčiau – mes, žmonės, esame linkę antropomorfizuoti daiktus ir esame šališki kalbėdami apie savavaldes mašinas. Mašina labai gerai atlieka vieną užduotį, ir jei žmogus galėtų tą užduotį atlikti taip pat gerai, galvotume, kad jis yra labai protingas. Tuomet mes tokią mintį išplečiame ir galvojame, kad tas žmogus būtų toks pat protingas ir kitose srityse. Geriausias šachmatų žaidėjas jau daugybę metų yra DI algoritmas, ir jei matome DI, laimintį prieš Garį Kasparovą, 1990-aisiais buvusį geriausią šachmatininką pasaulyje, mums atrodo, kad tas DI turi būti labai protingas. Bet jis tik tai ir moka daryti, nieko daugiau. „ChatGPT“ geba labai gerai rašyti kokybišką tekstą, ir jei tai mokėtų daryti žmogus, mes galvotume, kad jis turi labai daug žinoti. Realybėje „ChatGPT“ iš tiesų nežino, ką daro, jis daugiau nieko nemoka, jis neturi akių, kūno, patirties, supratimo apie save. Mes perkeliame šiuos gebėjimus į kitas sritis, nes dar niekada nėra buvę situacijos, kad žmogus galėtų atlikti ką nors panašaus. Jei žmogus mokėtų visas pasaulio kalbas ir galėtų jomis visomis rašyti, jis turėtų būti genijus. Tada galvojame, kad ir „ChatGPT“ yra labai protingas, nes moka visas pasaulio kalbas. Esame šiek tiek šališki, nusiteikę prieš technologijas, kurios atrodo protingos.
Yra dvi DI rūšys – viena, kurią turime dabar, vadinama „siauruoju DI“ (angl. narrow AI), ir kita, kurią šioje srityje norima pasiekti – „platusis DI“ (angl. general AI), tai būtų DI, pasižymintis tokiomis pat kompetencijomis kaip ir žmogus, įskaitant sąmonę ir kitas sudėtingas sąvokas, kurių net mes dar gerai nesuprantame.
Labai svarbu savęs paklausti, kokią prasmę mes rasime savo gyvenime, jei nuo tos akimirkos, kai gimstame, nėra daug ką nuveikti visuomenės labui?
– Ar ateityje gali atsirasti tikimybė, kad, pavyzdžiui, DI vis tobulėjant už jį reikės mokėti, ir tik dalis žmonių galės juo naudotis, ypač jei DI bus pasitelkiamas darbe ar švietime? Ar gali būti, kad tai ateityje sukurs tokią atskirtį, su kuria dabar susiduriame dėl interneto – juk dalis žmonių pasaulyje neturi priėjimo prie jo?
– Visa tai susiję su mūsų produkcijos ir darbo jėgos pokyčiais. Daug autorių aiškina, kad jei didelė populiacijos dalis negalėtų prisidėti prie produktyvumo, nes neturės atitinkamų įrankių ar išsilavinimo, turėtume turėti universalų bazinį atlyginimą, pajamas, kad jie galėtų turėti gerą gyvenimą, jei ne darbą. Taip pat yra siūlymų, kad, jei žmogaus darbą pakeis algoritmai, ar tuos algoritmus naudojančios įmonės neturėtų prisidėti prie socialinio saugumo, padėti ir padengti žmonijos kaštų? Galbūt dalis žmonių nebedirbs, todėl tokios įmonės galėtų mokėti pakankamai mokesčių, kad padėtų išlaikyti pakeistus žmones. Tad diskusijos dažniausiai sukasi apie klausimą, kaip užtikrinti tvarų ekonominį ir socialinį modelius. Visi šie aspektai dabar yra svarstomi, ir manau, kad ateityje taip pat turėtų būti priimtos reguliacijos, apibrėžiančios ekonominį technologijų poveikį.
Be ekonominio poveikio, socialinis poveikis taip pat yra labai svarbus. Mes, kaip žmonės, turime turėti savo gyvenimo prasmę. Vienas iš Homo sapiens pamatinių principų yra klausti, kodėl esame šioje planetoje, kokia yra mano gyvenimo prasmė? Daugeliu atvejų šią prasmę randame per savo darbą, nes prisidedame prie visuomenės gerovės savo žiniomis, laiku ar pastangomis. Labai svarbu savęs paklausti, kokią prasmę rasime savo gyvenime, jei nuo tos akimirkos, kai gimstame, nėra daug ką nuveikti visuomenės labui? Ką mes veiksime – ar medituosime, puoselėsime sodus, turėsime laiko kūrybai? Tai svarbi filosofinė, antropologinė diskusija, nes Homo sapiens beveik visą savo egzistenciją yra paskyrę išgyvenimui. Jei atsidursime situacijoje, kai to nebereikia daryti, kaip mes ketiname surasti savo egzistencijos prasmę?
„ELLIS Alicante“ fondas (https://ellisalicante.org) yra pirmasis Europos mokslinių tyrimų kompetencijos tinklo ELLIS Ispanijos padalinys. Tai vienintelis ELLIS padalinys, sukurtas kaip nepriklausomas ne pelno siekiantis mokslinių tyrimų fondas, veikiantis kaip mokslinis startuolis. Fondas siekia tapti pirmaujančia etinio, atsakingo ir į žmogų orientuoto dirbtinio intelekto tyrimų laboratorija. Tai vienintelis ELLIS padalinys (iš 35), skirtas tik šiai temai.
2018 m. įkurtas ELLIS tinklas orientuojasi į fundamentinius mokslinius tyrimus dirbtinio intelekto srityje Europoje, siekdamas pažangos, kurdamas technologines naujoves ir darydamas teigiamą socialinį ir ekonominį poveikį.