Rahvusvahelise andmekaitse töörühma kaks uut töödokumenti: neurotehnoloogiad ja keelemudelid
Rahvusvaheline tehnoloogia ja andmekaitse töörühm on avaldanud kaks olulist töödokumenti, mis käsitlevad neuroandmete ning suurte keelemudelite kasutamisega seotud privaatsus- ja turvariske.
Rahvusvaheline tehnoloogia alane andmekaitse töörühm, kuhu kuulub ka Andmekaitse Inspektsioon, on avaldanud kaks töödokumenti.
Esimene neist puudutab neuroandmeid ja andmekaitset - “Emerging Neurotechnologies and data protection“.
Esmakordselt käsitleb töödokument põhjalikult neuroandmete ja neurotehnoloogiate kasutamisega kaasnevaid privaatsus- ja andmekaitseohte. Neurotehnoloogiad, mis suudavad salvestada, töödelda või isegi mõjutada inimese ajutegevust, toovad kaasa enneolematu vajaduse kaitsta vaimset puutumatust ja tagada teadlik nõusolek. Töörühm rõhutab, et neuroandmed on erakordselt tundlikud ning nende töötlemine peab vastama selgelt määratletud õiguspärastele eesmärkidele ja toimuma rangeid andmekaitsepõhimõtteid järgides.
Teine materjal „Working Paper on Large Language Models (LLM)“, analüüsib suurte keelemudelite (LLMide) arengut ja sellega kaasnevaid andmekaitse- ning privaatsusriske. Seal tuuakse välja, et kuigi LLMid, nagu ka ChatGPT, pakuvad uusi võimalusi näiteks tervishoius, hariduses ja teeninduses, kaasnevad nendega siiski ka olulised ohud: isikuandmete väärkasutus, kallutatus, valeinfo levik ning läbipaistmatud algoritmid.
Töörühm rõhutab, et mudelite koolitamisel ja kasutamisel tuleb järgida andmekaitse põhimõtteid – seaduslikkust, eesmärgipärasust, minimaalsust ja turvalisust. Eriti oluliseks tuleb pidada läbipaistvust ja inimeste õiguste tagamist.