Keit Hints, EFTA Legali jurist

Viimastel nädalatel tohutut meediakajastust saanud ja kõlapinda tekitanud tehisintellekti (inglise keeles artificial intelligence ehk lühidalt AI) kasutamine võib mitmetes ettevõtetes kaasa tuua küll olulise efektiivsuse kasvu, kuid tööandjatel tasub põhjalikult hinnata AI kasutamisega seotud õiguslikke ja ärilisi riske. Kõige enam räägitakse hetkel ChatGPT vestlusliidese võimalustest ja ohtudest, kuid erinevaid tehisintellektil põhinevaid tööriistu tekib turule aina rohkem.

Tehisintellektist on saanud paljudes valdkondades tehnoloogiline abivahend, mis aitab kasutajatel mugavamalt ja tõhusamalt navigeerida nii tööülesannete täitmisel kui isiklikus elus. Teisalt võib teadmatusest või pahatahlikkusest AI väärkasutamine ja andmete töötlemine potentsiaalselt kaasa tuua erinevaid kahjulikke tagajärgi. Erinevaid õiguslikke ja eetilisi riske ei tasuks siinjuures alahinnata.

AI pakub lugematul hulgal võimalusi erinevate tööülesannete täitmiseks

Eelmise aasta novembris avalikkusele kättesaadavaks tehtud kõnerobot ChatGPT on kõnerobot, mis on koolitatud tohutute andmeplatvormide abil täitma erinevaid ülesandeid vestluse vormis. Liides kasutab väga suurel hulgal internetiavarustest leitud infot ja tekste ja teeb nendest kokkuvõtte. Hetkel on enim tähelepanu saanud aspekt, et kooliõpilased on hakanud oma kirjalikke kodutöid tegema tehisintellekti abiga, mis seab tõsise küsimuse alla selliste kodutööde vajalikkuse ja mõttekuse. Õpilastel ei arene analüüsivõime ega arutlusoskus, rääkimata sellest, et internetist leitav info alati tõene, kuid faktikontrolli AI teostada ei suuda.

Ometi annab sama vestlusrobot võimaluse anda lihtsamatele e-kirjadele vastamine, aruannete koostamine või kasvõi koosolekuks esitluse tegemise ülesanne hoopis arvutiprogrammile. Kas sellisel juhul tuleks esikohale seada efektiivsem töötulemus või muretseda pigem samuti töötajate töö –ja arenguvõimaluste pidurdumise pärast?

Ohukohtadeks on privaatsus ja konfidentsiaalsus

Ettevõtete ja tööandjate suurimaks murekohaks on praegu ja ilmselt ka tulevikus risk, et töötajad sisestavad andmeplatvormile ettevõtte ärimudeli seisukohast ärisaladust sisaldavaid ja konfidentsiaalseid andmeid. Paljud inimesed ei pruugi endale teadvustada, et platvorm salvestab sinna sisestatud info. Kuigi ChatGPT tingimuste kohaselt andmeid ei säilitata, siis andmerobot saab igast vestlusest targemaks ja suhtluse turvalisus ei ole mingil juhul sajaprotsendiliselt garanteeritud.

Juriidiliselt võime küll vastu vaielda, kas internetiavarustesse konfidentsiaalsete andmete sisestamist saab lugeda kolmandatele isikutele edastatud andmete edastamiseks, kuid juriidiliselt hall ala ettevõtte jaoks riske oluliselt ei vähenda. Siit tõusetub küsimus, kas ja kuidas peaks tulevikus ümbersõnastama nii töötajate kui koostööpartneritega sõlmitavad konfidentsiaalsuskokkulepped tagamaks, et vestlusrobotitesse ja keelemudelitesse ärisaladust sisaldavate andmete sisestamine on samuti keelatud.

Liitu uudiskirjaga

Nõustun privaatsustingimustega

Teiseks oluliseks murekohaks on tõusetunud isikute privaatsus ja andmekaitse. Selgub, et nii mitmelgi juhul suudab ChatGPT leida isikute privaatseid andmeid ja nende kasutamisel saab tehisintellekti kasutajast andmetöötleja isikandmete kaitse üldmääruse tähenduses. Euroopa Liidu ja Eesti seadusandluse kohaselt võib isikuandmete töötlemise nõuete rikkujaid karistada üpris suurte rahatrahvidega. Tehisintellekti abil saadud andmete kasutamisega kaasneb vastutus ja seega tasub olla selliste isikuandmete töötlemisel äärmiselt ettevaatlik.

Innovatsioon versus eetilised ja juriidilised riskid

Kogu maailm on tehisintellektiga seotud õiguslike ja äriliste riskide hindamise teekonna lävepakul. Võib arvata, et erinevate riiklikul tasemel regulatsioonideni jõutakse ilmselt alles aastate pärast. Tööandjatel tasub hetkel pigem mitte õigusselgust ootama jääda, vaid olla ise aktiivne ja mõelda, millises ulatuses tehisintellektide kasutamist tööülesannete sooritamiseks lubada või keelata. Tõhusama ja kiirema töösoorituse, innovatsiooni ja tehnoloogia arengu vastukaaluks tasub analüüsida ka tehisintellekti kasutamisega seotud andmekaitsega, konfidentsiaalsete andmete avaldamisega, autoriõigusega ja muude eetiliste küsimustega seotud riske.

Soovin lisainfot andmekaitse ja tehisintellekti riskide kohta võta meiega ühendust ja räägime lähemalt.