NEW YORK, 5. FEBRUAR 2026 – UNICEF je vse bolj zaskrbljen zaradi poročil o hitrem porastu števila seksualiziranih podob, ustvarjenih z umetno inteligenco, ki krožijo po spletu, vključno s primeri manipuliranih in seksualiziranih fotografij otrok. Globoki ponaredki (t. i. »deepfakes«) – slike, videoposnetki ali zvočni posnetki, ustvarjeni ali prirejeni z umetno inteligenco, ki so zasnovani tako, da delujejo resnično – se vse pogosteje uporabljajo za ustvarjanje seksualiziranih vsebin, ki vključujejo otroke. To vključuje tudi t. i. »razgaljanje«, pri katerem se z orodji umetne inteligence odstranjuje ali spreminja oblačila na fotografijah, da nastanejo izmišljene gole ali seksualizirane podobe.
Novi dokazi potrjujejo razsežnost te hitro rastoče grožnje: v raziskavi* UNICEF-a, ECPAT-a in INTERPOL-a v 11 državah je vsaj 1,2 milijona otrok razkrilo, da so bile njihove podobe v zadnjem letu manipulirane v spolno eksplicitne globoke ponaredke. V nekaterih državah to pomeni en na vsakih 25 otrok – kar je enakovredno enemu otroku v povprečno velikem razredu. Otroci se tega tveganja sicer zavedajo, sodeč po tem, da je v nekaterih državah, vključenih v raziskavo, do dve tretjini otrok povedalo, da jih skrbi, da bi se umetna inteligenca lahko uporabila za ustvarjanje lažnih seksualnih podob ali videoposnetkov. Stopnje zaskrbljenosti se med državami sicer močno razlikujejo, kar poudarja nujno potrebo po večji ozaveščenosti ter močnejših preventivnih in zaščitnih ukrepih.
Naj bomo jasni: seksualizirane podobe otrok, ustvarjene ali prirejene z orodji umetne inteligence, so gradivo spolne zlorabe otrok – CSAM (torej oblika spolnega izkoriščanja otrok v digitalni vsebini). Zloraba z globokimi ponaredki je zloraba. In škoda, ki jo povzroča, je resnična, ne ponarejena. Ko se uporabi podoba ali identiteta otroka, je ta otrok neposredno viktimiziran. Tudi če žrtev ni prepoznavna, pa z umetno inteligenco ustvarjeno gradivo spolne zlorabe otrok normalizira spolno izkoriščanje otrok, povečuje povpraševanje po tovrstnih vsebinah ter predstavlja velike izzive za organe pregona pri prepoznavanju in zaščiti otrok, ki potrebujejo pomoč.
Stanje v Sloveniji
V Slovenski policiji so že obravnavali primere izdelave, posesti in razširjanja gradiva (video posnetki in fotografije), ki so bila ustvarjena s pomočjo umetne inteligence in ki so prikazovala spolne zlorabe otrok ali otrok, ki so bili na posnetku goli oziroma pomanjkljivo oblečeni. Izdelava, posest in razširjanje tovrstnega gradiva je v skladu s 176. členom Kazenskega zakonika (KZ-1) prepovedana, saj zakon poleg pornografskih in seksualnih gradiv, ki prikazujejo mladoletne osebe,
prepoveduje tudi njihove realistične podobe.
»Slovenska policija je preiskovala več različnih primerov "deep fake" posnetkov oziroma globokih ponaredkov in sicer bodisi je bil posnetek v celoti ustvarjen z umetno inteligenco, se pravi otrok ni obstajal, bodisi so uporabili obraz otroka in ponaredili golo telo oziroma odstranili oblačila z otroka s fotografije ali posnetka,« je povedal Robert Tekavec, vodja Oddelka za mladoletniško kriminaliteto na Upravi kriminalistične policije. »Policija svetuje, da vsi, ki naletijo na gradivo spolnih zlorab otrok ali gradivo, ki prikazujejo realistične podobe otrok, to čimprej prijavijo policiji.«
UNICEF-ov poziv
UNICEF močno pozdravlja prizadevanja tistih razvijalcev umetne inteligence, ki uvajajo varnostne pristope že pri zasnovi in vzpostavljajo trdne zaščitne mehanizme za preprečevanje zlorabe svojih sistemov. Vendar pa je stanje na tem področju neenotno in vse preveč modelov umetne inteligence se še vedno razvija brez ustreznih zaščit. Tveganja se lahko še povečajo, kadar so generativna orodja umetne inteligence neposredno vgrajena
v družbena omrežja, kjer se manipulirane podobe hitro širijo.
UNICEF poziva k naslednjim ukrepom za soočanje z naraščajočo grožnjo z umetno inteligenco ustvarjenega gradiva spolne zlorabe otrok:
- Vse vlade po vsej svetu naj razširijo opredelitve gradiva spolne zlorabe otrok (CSAM), da vključujejo tudi z umetno inteligenco ustvarjene vsebine, ter njihovo ustvarjanje, pridobivanje, posedovanje in distribucijo opredelijo kot kaznivo dejanje.
- Razvijalci umetne inteligence naj uvedejo pristope varnosti že pri zasnovi in vzpostavijo trdne zaščitne mehanizme za preprečevanje zlorabe modelov umetne inteligence.
- Digitalna podjetja naj preprečujejo kroženje z umetno inteligenco ustvarjenega gradiva spolne zlorabe otrok – ne pa, da ga zgolj odstranjujejo po tem, ko je do zlorabe že prišlo – ter okrepijo moderiranje vsebin z vlaganji v tehnologije zaznavanja, da se takšno gradivo odstrani takoj, ne pa šele več dni po prijavi žrtve ali njenega zastopnika.
- Škoda, ki jo povzroča zloraba z globokimi ponaredki, je resnična in nujno je, da jo naslovimo takoj. Otroci ne morejo čakati, da zakonodaja dohiti razvoj na področju umetne inteligence.
Izjava odraža stališča, predstavljena v UNICEF-ovih Smernicah o umetni inteligenci in otrocih 3.0 (december 2025).
*Ti novi podatki so del druge faze raziskovalnega projekta Disrupting Harm (Disrupting Harm Phase 2), ki ga vodijo UNICEF-ov urad Innocenti, ECPAT International in INTERPOL, s financiranjem, ki ga zagotavlja organizacija Safe Online. Projekt preučuje, kako digitalne tehnologije omogočajo spolno izkoriščanje in zlorabo otrok, ter ustvarja dokaze za krepitev nacionalnih sistemov, politik in odzivov. V okviru te faze bodo v letu 2026 objavljena nacionalna poročila z ugotovitvami na ravni posameznih držav. V tej izjavi predstavljene ocene temeljijo na nacionalno reprezentativnih anketah gospodinjstev, ki sta jih UNICEF in IPSOS izvedla v 11 državah – to so Armenija, Brazilija, Kolumbija, Dominikanska republika, Mehika, Črna gora, Maroko, Severna Makedonija, Pakistan, Srbija in Tunizija. Vsaka anketa je vključevala enega otroka, starega od 12 do 17 let, ter enega starša ali skrbnika, pri čemer je bil uporabljen vzorčni načrt za doseganje popolne ali skoraj popolne nacionalne pokritosti (91–100 %). Raziskava je bila izvedena v državah, ki predstavljajo raznolike regionalne kontekste. Dodatne metodološke podrobnosti so na voljo na: https://safeonline.global/dh2-research-methods_final-2/
Foto: ZDFinfo/[m] André D Conrad; Fotograf: Jo