Natuurlijk, leerkrachten hebben het al hartstikke druk. En natuurlijk, bij iedere maatschappelijk issue wordt er meteen geroepen dat het in het onderwijs moet. En ja, er is al heel veel gedoe over seksuele vorming op school. Moet dit er dan echt bij? Ja, dat moet.
Met ‘dit’ bedoel ik ‘deepfake porno’. En het enige dat daar geen plekje van in het onderwijsprogramma moet krijgen, is hoe je het moet maken. Want dat is nu juist het probleem; dat weten heel veel jongeren al lang. En het worden er steeds meer.
Een paar weken geleden stonden alle nieuwsrubrieken vol met de laatste details over bangalijsten. Utrechtse studenten hadden een PowerPoint (wat op zich wel schattig is) gemaakt waarin vrouwelijke medestudenten werden besproken. Dat was heel heftig, terecht dat daar hard op werd ingegrepen. Maar stel je nou eens voor dat het niet gaat om jonge studentes, maar om middelbare scholieren. En stel je voor dat het geen PowerPoint is, maar een niet van echt te onderscheiden nep-video.
Overbodig als middel, gewild als doel
Het is niet zo dat er helemaal geen aandacht is voor mogelijke gevaren rondom deepfake beelden en video’s. Over het algemeen gaat het dan om vergezichten van hoe kwaadwillenden, in opdracht van buitenlandse staten, met dit soort materialen nep-nieuws kunnen produceren en verspreiden. Tegelijkertijd valt dan op, dat dit eigenlijk nog maar heel weinig gebeurt. Belangrijkste reden is dat het helemaal niet nodig is om deepfake materialen te produceren om op grote schaal desinformatie te verspreiden en aanhang te vinden voor vergezochte samenzweringstheorieën. Aan het einde van zo’n artikel of item ga je, wellicht lichtelijk gedesillusioneerd over je medemens, toch rustig je bed in.
Maar met porno ligt het anders. Waar het in het geval van misinformatie een -overbodig- middel is om deepfake beeldmateriaal te produceren, bij porno is dat het doel. En dat doel wordt steeds eenvoudiger bereikt. Met steeds minder goed van echt te onderscheiden eindresultaat. In 2022 maakte presentatrice Welmoed Sijtsma een documentaire over een deepfake porno film die van haar was gemaakt. Die documentaire kreeg veel aandacht, maar daarna werd het eigenlijk best stil. Terwijl de technologische ontwikkeling enorme vooruitgang boekte. Zonder dat er al te veel ruchtbaarheid aan werd gegeven is er inmiddels een enorme hoeveelheid aan deepfake porno te vinden. Op speciaal daarvoor gebouwde websites en in Telegram groepen. Maar ook door simpelweg een Google zoekopdracht te doen, of via social media als Reddit en Tumblr.
De strijd tegen deepfake porno is allang verloren
In veel gevallen gaat het dan al niet meer om bewerkelijke processen zoals in ‘die goede oude nepporno tijd’, toen de maker nog nachtenlang in een donker kamertje moest zitten zweten bij de video-editting software. Als je geen genoegen wilt nemen met de apps die je in je appstore kunt downloaden, is een simpele zoekopdracht voldoende om tientallen, zo niet honderden, AI tools te vinden waarmee je eenvoudig zelf je deepfake pornomateriaal kunt maken. Tools die bijvoorbeeld net ChatGPT en Microsoft’s CoPilot gebruik maken van de modellen van Open.ai, kwaliteit gegarandeerd voor een habbekrats. En als je toch iets specifieks wil en een beetje handiger bent, kun je ook op zoek naar open source code op GitHub.
In 2018 verzuchtte de Amerikaanse actrice Scarlett Johanson al dat de strijd tegen deepfake porno een verloren zaak was. En dat was dus nog vóór de AI revolutie. De slachtoffers waren celebrities van wie veel stilstaand en bewegend beeld te vinden was. Inmiddels kan het slachtoffer ieder willekeurig persoon zijn, het kost namelijk nauwelijks tijd of moeite om het te produceren. En al net zo weinig moeite om je knutselwerk anoniem met de wereld te delen.
De juridische weg lijkt heilloos
Het is dus een groot, groeiend probleem. Maar ik kan me heel goed voorstellen dat je nu denkt dat er veel betere manier zijn om dit probleem aan te pakken dan via het onderwijs. Dit kan toch niet legaal zijn allemaal? Waarom sturen we de politie er niet op af?
Net zoals met alle AI ontwikkelingen, is ook deepfake porno er in zo’n tempo gekomen dat het voorlopig helemaal nog niet zo makkelijk is om er via juridische weg iets aan te doen. In het geval van Welmoed Sijtsma is de dader weliswaar opgepakt en veroordeeld, maar dat was helaas wel de uitzondering. De overheid stelde na onderzoek in 2022 dat niet zozeer wetgeving, maar vooral handhaving een probleem gaat zijn. En ook dat onderzoek vond plaats vóór de AI revolutie. Niet alleen zorgde deze revolutie er voor dat er veel méér materiaal wordt ontwikkelt, het zorgt er ook voor dat het mogelijk is dat middels AI volkomen random personages worden ontwikkeld voor een deepfake porno video. En bewijs dan maar eens dat jouw beeltenis in zo’n video is geplaatst en niet een fictief personage dat toevallig op je lijkt.
Guardrails leggen het af tegen creativiteit
Behalve de makers van de porno, zou je ook kunnen proberen om de makers van de technologie aan te pakken. Maar dat blijkt nog niet zo eenvoudig. Tech multinationals hebben diepe zakken voor een juridische strijd en bevinden zich ook nog eens op verschillende continenten waardoor het nog eens moeilijker wordt om ze aan te pakken. En daarnaast kunnen ze zich natuurlijk verschuilen achter het standpunt dat zij enkel de technologie ontwikkelen en geen verantwoordelijkheid kunnen dragen voor wat gebruikers er vervolgens mee doen.
Het lijkt een heilzamer route om techbedrijven te vragen om vrijwillig veiligheidsmaatregelen in hun systemen in te bouwen (guardrails). Echter, áls ze al bereid zijn om dat te doen -wat erg twijfelachtig is, het blijft toch een mannenwereldje- is het vrijwel onmogelijk om deze guardrails voldoende effectief te maken. Dit soort beperkingen werken slechts zo lang niemand creatief genoeg is geweest om te ontdekken hoe die beperking te omzeilen.
Een misdrijf zonder slachtoffers
Mocht het dus al ooit lukken om te kunnen voorkomen dat er deepfake porno wordt gemaakt, dan zal dat zeker nog vele jaren duren. En in de tussentijd moeten we doen wat we kunnen om zoveel mogelijk slachtoffers te voorkomen. Het onderwijs is in die strijd een belangrijke route. Via die weg kunnen we jongeren, voordat zij dader worden, leren dat het voor hen wellicht onschuldig lijkt maar dat dat het voor de slachtoffers zeker niet is. Het kan voelen als een misdrijf zonder slachtoffer, het is immers geen echte video, maar de gevolgen voor de slachtoffers zijn vaak even ernstig.
Tegelijkertijd zullen we realistisch genoeg moeten zijn dat het produceren van deepfake porno waarschijnlijk nooit helemaal zal verdwijnen. De vraag zal blijven bestaan en er zullen mogelijkheden blijven bestaan om aan die vraag te voldoen. En dan is het dus ook belangrijk dat we met elkaar leren hoe we er het beste mee om kunnen gaan als er zich zo’n incident voordoet. Hoe reageren we op een dader, maar vooral: hoe zorgen we er samen voor dat de schade voor het slachtoffer minimaal mogelijk blijft. Door steunend en begripvol op te treden bijvoorbeeld.
Deepfakes bedreigen mensenrechten
Één van de meest contraproductieve manier om iets tegen deepfake porno te doen is het promoten van verregaande onderdrukking van vrouwen. In ultraconservatieve kringen worden vrouwen soms al ontmoedigd om überhaupt online vindbaar te zijn. Dat zou de enige manier zijn om te voorkomen dat je ooit in een deepfake porno terecht komt. Maar in een tijd waarin je er niet omheen kunt om wanneer je gehoord wenst te worden, dat óók online of minimaal via massamedia te doen; betekent dat per saldo dat deze vrouwen monddood worden gemaakt. En dan is het middel erger dan de kwaal.
En zo zijn door AI gegenereerde deepfakes dus tóch een bedreiging van de democratie en van universele mensenrechten. Niet rechtstreeks maar, niet voor het eerst, via een omweg. Langs het taboe rond seksualiteit.
Afbeelding gegenereerd met Adobe Firefly

