In 2014 begon één van de grootste wetgevingsoperaties van deze eeuw: de modernisering van het Wetboek van Strafvordering. Het wetboek dat uit 1926 stamt was volgens velen niet meer van deze tijd. Nu, zo een zeven jaar na aanvang van dit project, is het dan zover; het nieuwe wetboek is zo goed als af en wordt bijna ingevoerd.[1] De vraag is echter of dit nieuwe wetboek opgewassen is tegen de technologische ontwikkelingen van de afgelopen jaren. Sinds de aanvang van het project in 2014 hebben namelijk veel nieuwe ontwikkelingen plaatsgevonden. Eén van die ontwikkelingen is de opkomst van deepfake-technologie: technologie waarmee audio- en videomateriaal gemakkelijk gemanipuleerd kan worden. De opkomst van deze technologie heeft voor veel bezorgdheid gezorgd bij onder anderen het Openbaar Ministerie. Van verschillende kanten wordt er gewaarschuwd voor een digitaal tijdperk waarin wij onze ogen en oren niet meer kunnen vertrouwen. Maar hoe reëel is deze zorg? Wat houdt deepfake-technologie in? En, is het recht wel gewapend tegen deze nieuwe ontwikkeling?
De opkomst van Deepfakes
Waar realistische bewerkte video’s voorheen slechts voorbehouden waren aan de studio’s in Hollywood, liggen ze tegenwoordig voor iedereen binnen handbereik. Dit is te danken aan de ontwikkelingen op het gebied van deepfake-technologie. Deze technologie zet kunstmatige intelligentie in om nepvideo’s te maken die net echt lijken.[2] Jij hebt er waarschijnlijk al mee te maken gehad zonder erbij stil te staan. Denk bijvoorbeeld aan apps zoals ReFace waarmee jij jezelf met één klik op de knop in een scène van jouw favoriete film kan plaatsen of de FaceApp, waarmee jij een oudere of jongere versie van jezelf kunt maken of zelfs van geslacht kunt veranderen. Alhoewel dit soort apps ontzettend amuserend kunnen zijn, maken ze wel één ding duidelijk; deepfake-technologie wordt steeds toegankelijker. Dat deze bredere toegankelijkheid ook gevaren met zich meebrengt, werd in de afgelopen jaren duidelijk. Het begon met vrouwen die slachtoffer werden van zogenaamde deep nudes: beeldmanipulatie met een pornografisch karakter. In 2019 werd nieuwslezeres Dionne Stax hier de dupe van. Haar gezicht werd in een erotische film verwerkt en op verschillende platforms gedeeld.[3] Naast het feit dat er met zulke filmpjes een grove inbreuk wordt gemaakt op het portretrecht van deze vrouwen, worden zulke filmpjes steeds vaker ingezet om vrouwen te chanteren en hun imago te schaden. Rana Ayyub, een onderzoeksjournaliste uit India kreeg hiermee te maken nadat ze een kritisch boek schreef. Ze ontving niet alleen doodsbedreigingen op haar adres, maar er doken ook gemanipuleerde seksvideo’s van haar op. Hierdoor liep ze enorme imagoschade op en kon ze lange tijd nauwelijks meer over straat.[4] Het gevaar van deepfake-technologie zit hem niet alleen in het feit dat de filmpjes steeds realistischer worden, maar ook dat deze technologie steeds toegankelijker wordt. Zo is laatst een 54-jarige vrouw in Amerika opgepakt voor het maken van deepfakes van minderjarige meisjes. Deze meisjes waren concurrenten van haar dochter voor het lokale cheerleader team. In de deepfakes leek het alsof de meisjes naakt aan de drank zaten en drugs gebruikten. Het doel van de vrouw was om de meisjes in een kwaad daglicht te zetten zodat ze uit het team werden gezet.[5] Dit recente voorbeeld illustreert perfect hoe toegankelijk deepfake-technologie is geworden en hoe het gebruikt kan worden om mensen te framen. De vraag is nu hoe het recht hiermee om moet gaan. Als straks de realiteit niet meer te onderscheiden valt van fantasie, is waarheidsvinding aan de hand van videobeelden dan nog wel mogelijk?
“Alhoewel dit soort apps ontzettend amuserend kunnen zijn, maken ze wel één ding duidelijk; deepfake-technologie wordt steeds toegankelijker.”
Het recht: gewapend tegen deepfakes?
De afgelopen jaren leek waarheidsvinding binnen het strafrecht steeds eenvoudiger te worden. Nu camera’s op bijna elke hoek van de straat te vinden zijn en mensen met hun mobiele telefoons van alles filmen en opnemen, vormen camerabeelden en geluidsopnames in steeds meer strafzaken belangrijk bewijsmateriaal. Ondanks de prominente toename van dit type bewijsmateriaal, zijn video- en audiomateriaal nog steeds niet opgenomen als wettige bewijsmiddelen in het Wetboek van Strafvordering. Audio- en videomateriaal moeten daarom ter zitting aan de rechter worden getoond zodat ze geschaard kunnen worden onder ‘de eigen waarneming van de rechter’.
Met de modernisering van het Wetboek van Strafvordering zal hier binnenkort verandering in komen. Audio- en videomateriaal zullen na lange tijd eindelijk worden opgenomen als zelfstandige wettelijke bewijsmiddelen. Echter, met de opkomst van deepfakes is discussie omtrent de betrouwbaarheid ten aanzien van dergelijke bewijsmaterialen ontstaan. Waar voorheen werd gesteld dat camerabeelden en geluidsopnames als belangrijk en betrouwbaar bewijsmateriaal diende te worden beschouwd, ontbrak hier een wettelijke grondslag voor. Nu komt er eindelijk een wettelijke grondslag voor dit bewijsmateriaal, maar bestaat er twijfel over de betrouwbaarheid van zulke camerabeelden en geluidsopnames. Dit toont hoe het recht vaak achter de technologische ontwikkelingen aan hobbelt. Indien deepfake-technologie het makkelijk maakt om iemand op beeld iets strafbaars te laten doen of zeggen, wordt het steeds lastiger om audio- en videobeelden als betrouwbaar bewijsmateriaal te zien. Aangezien deepfake-technologie zich in een rap tempo ontwikkelt, ligt het gevaar van valselijke beschuldiging op de loer. Ook bij het OM is deze zorg toegenomen: “We moeten beseffen dat als we iets zien, we dat niet meer kunnen geloven”, zegt officier van justitie Lodewijk van Zwieten.[6]
“Dit toont hoe het recht vaak achter de technologische ontwikkelingen aan hobbelt.”
Met de opkomst van deepfakes is niet alleen de vraag ontstaan over welke waarde we aan video- en audiobeelden als bewijsmateriaal moeten hechten, maar ook over hoe het huidige recht de verspreiding van nepbeelden tegen kan gaan. Het maken en verspreiden van deep nudes is onder het huidige recht al strafbaar onder smaad en laster. Om iemand hiervoor te berechten moet er echter wel aangifte worden gedaan. Om deze reden willen politieke partijen zoals Groenlinks en het CDA dat er in het Wetboek van Strafrecht een expliciete bepaling wordt opgenomen die het creëren en verspreiden van deepnudes strafbaar maakt, net zoals momenteel het geval is met wraakporno. Dit maakt het voor de politie makkelijker om in te grijpen omdat aangifte dan niet meer nodig is om in actie te kunnen komen.[7]
Alhoewel het duidelijk is dat zowel in de politiek als bij het OM de zorg omtrent deepfake-technologie is toegenomen, zien we dat het huidige recht nog lang niet opgewassen is tegen de gevaren van deepfake-technologie. De vraag is nu wat dit betekent voor de toekomst. Hoe kunnen de gevaren van deze technologie ingeperkt worden? Moet deepfake-technologie wellicht in zijn geheel worden verboden?
Hoe nu verder?
Een geheel verbod op het maken van deepfakes is vrijwel onmogelijk en volgens velen ook niet gewenst. De techniek is er immers al en wordt ook veelvuldig ingezet voor andere doeleinden, zoals amusement en rouwverwerking. Door ontwikkelingen op het gebied van deepfake-technologie kunnen nabestaanden namelijk interactieve videogesprekken voeren met hun overleden dierbaren om het rouwproces te vergemakkelijken.[8] Dat deepfake-technologie een steeds prominentere rol krijgt in de samenleving vormt an sich ook geen probleem. Dat neemt niet weg dat zowel de maatschappij, de academische wereld als de wetgever hun blik dienen te werpen op dit vraagstuk. De maatschappij zal moeten leren om verantwoord met deze technologie om te gaan en zich bewust te worden van haar gevaren, terwijl academici en onderzoekers zich dienen te storten op de vraag hoe de technologie beter kan worden beveiligd. Daarnaast ligt er een belangrijke taak bij de wetgever; zij zal moeten nadenken over het zorgvuldig reguleren van deepfake-technologie en haar toepassing.[9] Zo kan er bijvoorbeeld overwogen worden om bij strafzaken bepaalde eisen te stellen aan audio- en videomateriaal dat als bewijs wordt ingediend. Tegenwoordig is er namelijk ook software beschikbaar dat deepfakes kan detecteren. Deze technologie kan dan worden ingezet om te verifiëren of audio- en videomateriaal wel authentiek is.[10]
“Dit toont hoe het recht vaak achter de technologische ontwikkelingen aan hobbelt.”
De vraag hoe gevaarlijk deepfake-technologie precies kan zijn en welke maatregelen er getroffen moeten worden, valt niet eenduidig te beantwoorden. De toekomst zal moeten uitwijzen of deepfake-technologie werkelijk zo een groot gevaar zal vormen als er op dit moment geschetst wordt. Wel is duidelijk dat wij als maatschappij steeds vaker stil zullen moeten staan bij de vraag of bepaalde beelden wel authentiek zijn. Of er daadwerkelijk een tijdperk aanbreekt waarin wij niet meer op onze waarnemingen kunnen vertrouwen, zal moeten blijken. Wel kan in ieder geval geconcludeerd worden dat de uitspraak ‘eerst zien, dan geloven’ niet meer van deze tijd is.
Geschreven door: Rasa Barai
[1]De Rijksoverheid, ‘Nieuwe Wetboek van Strafvordering voor advies naar Raad van State’, (rijksoverheid.nl), https://www.rijksoverheid.nl/actueel/nieuws/2021/04/02/nieuwe-wetboek-van-strafvordering-voor-advies-naar-raad-van-state
[2] J. Duursma, ‘wat is deepfake’, (jarnoduursma.nl), https://jarnoduursma.nl/blog/wat-is-deepfake/
[3] AD, ‘Manager woest na opduiken deepfake-pornofilmpje Dionne Stax: ‘Aangifte in voorbereiding’’, (AD.nl, 27 augustus 2019), https://www.ad.nl/binnenland/manager-woest-na-opduiken-deepfake-pornofilmpje-dionne-stax-aangifte-in-voorbereiding~af9dace5/
[4] NOS, ‘Politiek en meldpunt binden strijd aan met ‘deep nudes’, (NOS.nl, 25 november 2020), https://nos.nl/artikel/2358075-politiek-en-meldpunt-binden-strijd-aan-met-deep-nudes.html
[5] RTL Nieuws, ‘’Moeder cheerleader maakt deepfakes van concurrenten dochter’, (rtlnieuws.nl, 16 maart 2021), https://www.rtlnieuws.nl/nieuws/buitenland/artikel/5220035/moeder-verenigde-staten-deepfakes-concurrenten-dochter
[6] NOS, ‘Zorgen OM over deepfakes: ‘Risico op oplichting en afpersing’, (NOS.nl, 7 september 2019), https://nos.nl/artikel/2300688-zorgen-om-over-deepfakes-risico-op-oplichting-en-afpersing.html
[7] Het Parool, ‘CDA en GroenLinks: Maak verspreiden gemanipuleerde naaktbeelden strafbaar’, ( 25 november 2020), https://www.parool.nl/nederland/cda-en-groenlinks-maak-verspreiden-gemanipuleerde-naaktbeelden-strafbaar~b5b779f5/
[8] NOS, ‘Politiek en meldpunt binden strijd aan met ‘deep nudes’, (NOS.nl, 25 november 2020), https://nos.nl/artikel/2358075-politiek-en-meldpunt-binden-strijd-aan-met-deep-nudes.html
[9] Vice News, ‘This Horrifying App Undresses a Photo of Any Woman With a Single Click’, (vice.com, 26 juni 2019), https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman
[10] De Volkskrant, ’Kunstmatige intelligentie maakt én bestrijdt nepbeelden’, (volkstkrant.nl, 18 oktober 2019), https://www.volkskrant.nl/kijkverder/v/2019/deepfakes/