UNICEF je vse bolj zaskrbljen zaradi poročil o hitrem porastu števila seksualiziranih podob, ustvarjenih z umetno inteligenco, ki krožijo po spletu, vključno s primeri manipuliranih in seksualiziranih fotografij otrok.
Globoki ponaredki (t. i. »deepfakes«) – slike, videoposnetki ali zvočni posnetki, ustvarjeni ali prirejeni z umetno inteligenco, ki so zasnovani tako, da delujejo resnično – se vse pogosteje uporabljajo za ustvarjanje seksualiziranih vsebin, ki vključujejo otroke. To vključuje tudi t. i. »razgaljanje«, pri katerem se z orodji umetne inteligence odstranjuje ali spreminja oblačila na fotografijah, da nastanejo izmišljene gole ali seksualizirane podobe.
Novi dokazi potrjujejo razsežnost te hitro rastoče grožnje: v raziskavi* UNICEF-a, ECPAT-a in INTERPOL-a v 11 državah je vsaj 1,2 milijona otrok razkrilo, da so bile njihove podobe v zadnjem letu manipulirane v spolno eksplicitne globoke ponaredke. V nekaterih državah to pomeni en na vsakih 25 otrok – kar je enakovredno enemu otroku v povprečno velikem razredu.
Otroci se tega tveganja sicer zavedajo, sodeč po tem, da je v nekaterih državah, vključenih v raziskavo, do dve tretjini otrok povedalo, da jih skrbi, da bi se umetna inteligenca lahko uporabila za ustvarjanje lažnih seksualnih podob ali videoposnetkov. Stopnje zaskrbljenosti se med državami sicer močno razlikujejo, kar poudarja nujno potrebo po večji ozaveščenosti ter močnejših preventivnih in zaščitnih ukrepih.
Naj bomo jasni: seksualizirane podobe otrok, ustvarjene ali prirejene z orodji umetne inteligence, so gradivo spolne zlorabe otrok – CSAM (torej oblika spolnega izkoriščanja otrok v digitalni vsebini). Zloraba z globokimi ponaredki je zloraba. In škoda, ki jo povzroča, je resnična, ne ponarejena.
Ko se uporabi podoba ali identiteta otroka, je ta otrok neposredno viktimiziran. Tudi če žrtev ni prepoznavna, pa z umetno inteligenco ustvarjeno gradivo spolne zlorabe otrok normalizira spolno izkoriščanje otrok, povečuje povpraševanje po tovrstnih vsebinah ter predstavlja velike izzive za organe pregona pri prepoznavanju in zaščiti otrok, ki potrebujejo pomoč.
Stanje v Sloveniji
V Slovenski policiji so že obravnavali primere izdelave, posesti in razširjanja gradiva (video posnetki in fotografije), ki so bila ustvarjena s pomočjo umetne inteligence in ki so prikazovala spolne zlorabe otrok ali otrok, ki so bili na posnetku goli oziroma pomanjkljivo oblečeni.
Izdelava, posest in razširjanje tovrstnega gradiva je v skladu s 176. členom Kazenskega zakonika (KZ-1) prepovedana, saj zakon poleg pornografskih in seksualnih gradiv, ki prikazujejo mladoletne osebe, prepoveduje tudi njihove realistične podobe.
“Slovenska policija je preiskovala več različnih primerov “deep fake” posnetkov oziroma globokih ponaredkov in sicer bodisi je bil posnetek v celoti ustvarjen z umetno inteligenco, se pravi otrok ni obstajal, bodisi so uporabili obraz otroka in ponaredili golo telo oziroma odstranili oblačila z otroka s fotografije ali posnetka,” je povedal Robert Tekavec, vodja Oddelka za mladoletniško kriminaliteto na Upravi kriminalistične policije. “Policija svetuje, da vsi, ki naletijo na gradivo spolnih zlorab otrok ali gradivo, ki prikazujejo realistične podobe otrok, to čimprej prijavijo policiji.”
UNICEF-ov poziv
UNICEF močno pozdravlja prizadevanja tistih razvijalcev umetne inteligence, ki uvajajo varnostne pristope že pri zasnovi in vzpostavljajo trdne zaščitne mehanizme za preprečevanje zlorabe svojih sistemov. Vendar pa je stanje na tem področju neenotno in vse preveč modelov umetne inteligence se še vedno razvija brez ustreznih zaščit. Tveganja se lahko še povečajo, kadar so generativna orodja umetne inteligence neposredno vgrajena v družbena omrežja, kjer se manipulirane podobe hitro širijo.
UNICEF poziva k naslednjim ukrepom za soočanje z naraščajočo grožnjo z umetno inteligenco ustvarjenega gradiva spolne zlorabe otrok:
- Vse vlade po vsej svetu naj razširijo opredelitve gradiva spolne zlorabe otrok (CSAM), da vključujejo tudi z umetno inteligenco ustvarjene vsebine, ter njihovo ustvarjanje, pridobivanje, posedovanje in distribucijo opredelijo kot kaznivo dejanje.
- Razvijalci umetne inteligence naj uvedejo pristope varnosti že pri zasnovi in vzpostavijo trdne zaščitne mehanizme za preprečevanje zlorabe modelov umetne inteligence.
- Digitalna podjetja naj preprečujejo kroženje z umetno inteligenco ustvarjenega gradiva spolne zlorabe otrok – ne pa, da ga zgolj odstranjujejo po tem, ko je do zlorabe že prišlo – ter okrepijo moderiranje vsebin z vlaganji v tehnologije zaznavanja, da se takšno gradivo odstrani takoj, ne pa šele več dni po prijavi žrtve ali njenega zastopnika.
Škoda, ki jo povzroča zloraba z globokimi ponaredki, je resnična in nujno je, da jo naslovimo takoj. Otroci ne morejo čakati, da zakonodaja dohiti razvoj na področju umetne inteligence.
