Meniu
Prenumerata

ketvirtadienis, lapkričio 21 d.


KOMENTARAS
DI politika įmonėms: įrankis, padėsiantis išvengti brangiai kainuojančių klaidų naudojant DI savo veikloje
Aurelija Rutkauskaitė
Asmeninis archyvas
A. Rutkauskaitė.

Esamas dirbtinio intelekto (DI) prieinamumas keičia tai, kaip dirbame. Net jei aktyviai nenaudojate „ChatGPT“, dirbtinis intelektas jau įsitvirtinęs tokiuose mūsų kasdieniuose skaitmeninio biuro įrankiuose kaip „Word“, „Slides“, „Docs“, „Sheets“ ir kt. Laimi tie, kurie geba sėkmingai išnaudoti dirbtinio intelekto teikiamus privalumus – didinti asmeninį ir komandos produktyvumą, sumažinti rutininių užduočių skaičių, tuo pačiu didinant veiklos kokybę.

Tačiau dirbtiniu intelektu, kaip ir kiekvienu inovatyviu įrankiu, turime išmokti tinkamai ir saugiai naudotis. Tik taip sumažinsime brangiai kainuojančių klaidų riziką ir jautrios informacijos nutekėjimą. Vis tik daugelis Lietuvos įmonių dar nėra apibrėžusios saugaus ir atsakingo dirbtinio intelekto naudojimo taisyklių savo veikloje, o tai neišvengiamai reiškia pažeidžiamumą.

Aurelija Rutkauskaitė gegužės 28 d. IQ forume Mažeikiuose skaitys pranešimą „Nuo efektyvumo iki pažeidžiamumo: kaip išvengti dirbtinio intelekto keliamų rizikų“. Susipažinti su forumo programa ir registruotis galite čia.

Technologijų milžinams lenktyniaujant tarpusavyje, kaip sukurti ir pristatyti pažangiausius DI sprendimus, JAV ir ES reguliavimo institucijos sprendžia, kaip veiksmingai reguliuoti dirbtinio intelekto kūrėjų veiklą. Tuo tarpu įmonėms, norinčioms pasinaudoti šiomis technologijomis, kad supaprastintų savo veiklą, su galimomis rizikomis tenka kovoti pačioms. Todėl labai svarbu, kad įmonių vadovai aiškiai suprastų galimus rizikos faktorius, jog pasitvirtintų tvirtą bei tvarią vidaus politiką, apibrėžiančią dirbtinio intelekto naudojimą organizacijos viduje.

Kaip užtikrinsime dirbtinio intelekto kuriamų rezultatų kokybę?

Nors dirbtinis intelektas tikrai gali prisidėti prie puikių rezultatų, išlieka šališkų, netinkamų ar neteisingų sprendimų rizika. Tai didelis iššūkis įmonėms, kurios remiasi dirbtiniu intelektu priimdamos svarbius verslo sprendimus arba bendraudamos su klientais. Pavyzdžiui, naudojant teksto generatorių atsakymams į klientų skundus ar užklausas, gali būti gauti netikslūs ar netinkami atsakymai, kurie gali paskatinti neigiamas vartotojų patirtis ar net teisines pasekmes. Be to, darbuotojai, pasikliaudami vien tik dirbtinio intelekto rezultatais, o ne savo patirtimi, gali tiesiogiai pakenkti savo darbo kokybei ar net darbdavio įvaizdžiui.

*****susije*****

Gerai parengtose dirbtinio intelekto naudojimo taisyklėse turėtų būti reikalaujama, kad darbuotojai dirbtinio intelekto generuojamiems rezultatams taikytų tokio paties lygio kokybės kontrolę, kaip ir kitiems darbams, o šiuos įrankius naudotų tik tada, kai jie iš tiesų pagerina darbo eigą. Taip užtikrinama, kad rezultatai atitiktų organizacijos vertybes, standartus ir vidaus taisykles.

Šiose taisyklėse taip pat turėtų būti sprendžiami klausimai susiję su kokybės kontrole, konfidencialumu, skaitmeniniu saugumu, intelektinės nuosavybės teisėmis, asmens duomenų apsauga, teisės aktų laikymusi ir informacijos atskleidimu klientams. Galiausiai reikėtų nepamiršti numatyti atsakomybės už politikos ir nustatytų taisyklių nesilaikymą.

Kaip užtikrinsime konfidencialumą ir skaitmeninį saugumą, asmens duomenų apsaugą?

Vidaus politikoje turi būti paaiškinta, kad teksto įvedimas į dirbtinio intelekto teksto generatorius susijęs su tokia pačia rizika ir atsakomybe kaip ir dalijimasis informacija su bet kuria kita trečiąja šalimi. Duomenimis ne tik dalijamasi su dirbtinio intelekto produktą valdančia įmone, bet jie dažnai yra įtraukiami į šio įrankio mokymo duomenų rinkinį, todėl jie gali būti atskleisti ir kitiems naudotojams. Įmonės turėtų užtikrinti, kad darbuotojai netyčia neatskleistų konfidencialios informacijos ir komercinių paslapčių trečiosioms šalims, o duomenis, įvestus į dirbtinio intelekto tekstų generatorius, traktuoti kaip išorinį atskleidimą, kuriam taikoma organizacijos duomenų konfidencialumo ir saugumo politika.

Plačiai nuskambėjęs „Samsung Electronics“ incidentas, kuomet vienas jų darbuotojas į „ChatGPT“ įrankį sukėlė konfidencialiai laikytą programinį kodą yra puikiai iliustruojantis pavyzdys apie galimas rizikas. 
Po to „Samsung Electronics“ kuriam laikui visiškai uždraudė bet kokių generatyvinio DI sprendimų naudojimą. To nebūtų nutikę, jei „Samsung Electronics“ būtų iš anksto pasirūpinęs darbuotojams skirtomis DI sprendimų naudojimo taisyklėmis.

Skaitmeninis saugumas glaudžiai susijęs su konfidencialumu. Dalijimasis konfidencialia informacija su trečiosiomis šalimis naudojant dirbtinio intelekto įrankius gali pakenkti įmonės saugumo sistemoms. Be to, dėl dirbtinio intelekto gebėjimo įsisavinti informaciją ir imtis savarankiškų veiksmų juo gali manipuliuoti įsilaužėliai, todėl gali būti pažeisti duomenys arba paviešinta slapta informacija.

Iš principo tos pačios taisyklės galioja ir asmens duomenų apsaugai. Darbuotojai turi labai aiškiai suprasti, kad asmens duomenų kėlimas į DI sistemas reiškia dalijimąsi jais su trečiąja šalimi. Tai, savo ruožtu, reikalauja, kad tokiam dalijimuisi turėtume labai konkretų teisinį pagrindą. Dažnu atveju kalbant apie DI sistemų pasitelkimą duomenų apdorojimui, tokio pagrindo neturėsime, todėl įmonių vadovai turėtų pasirūpinti, kad formuojant dirbtinio intelekto užduotis būtų pasirūpinta teikiamos informacijos nuasmeninimu.

Kaip apsaugosime intelektinę nuosavybę?

DI sistemos gali būti mokomos naudotis viešai prieinamus duomenis, naudotojams net nežinant apie generuojamo turinio nuosavybės pobūdį. 
Dirbtinio intelekto sprendimų kūrėjai paprastai atsisako atsakomybės už tokius pažeidimus, todėl įmonėms tenka pareiga užtikrinti, kad jų naudojimas atitiktų trečiųjų šalių teises.

Kitas svarbus aspektas – šiai dienai taip ir neturime tvirto atsakymo, kas bus laikomas su dirbtinio intelekto sistemos pagalba sukurto kūrinio ar kito intelektinės nuosavybės objekto autoriumi. Kartu tai reiškia, kad įmonės DI sistemas naudojančios kūrybinei veiklai, inovacijų kūrimui ir panašiai turi įsivertinti tai, kad su DI sistemų pagalba sukurtų intelektinės nuosavybės objektų gali nepavykti efektyviai apsaugoti.

Kaip užtikrinsime atitiktį teisės aktams?

Tokiose srityse kaip sveikatos priežiūra ar finansai, kurioms taikomas griežčiausias reglamentavimas, naudojant AI būtina užtikrinti atitiktį teisės aktams nustatant politiką, kurioje apibrėžiamos darbuotojų funkcijos bei atsakomybė už dirbtinio intelekto tekstų generatorių naudojimą.

Kaip informuosime klientus apie dirbtinio intelekto naudojimą?

Galiausiai įmonės turi nuspręsti, kaip ir ar atskleis klientams informaciją apie dirbtinio intelekto naudojimą. Kelių čia yra įvairių. Vienoje svarstyklių pusėje – visai nutylėti apie tai, kad prie rezultato prisidėjo DI sistema, kitoje – prie kiekvieno dokumento, sukurto naudojant dirbtinį intelektą arba jam padedant, pridėti apie tai informuojantį pranešimą arba įtraukti sutarties sąlygą, kurioje būtų nurodyta, kad tam tikra informacija gali būti kuriama naudojant dirbtinį intelektą. Darbuotojai turi teisę aiškiai žinoti, kokį kelią yra pasirinkusi jų įmonė.

Aurelija Rutkauskaitė yra advokatų kontoros „Triniti Jurex“ partnerė, advokatė ir IT bei duomenų apsaugos komandos vadovė

2024 05 22 17:59
Spausdinti