Probleem van deepfakes zit niet in wetgeving, maar vooral in handhaving daarvan

Door de opkomst van deepfakes komt de vraag ‘Wat is echt?’ steeds vaker op de politieke en maatschappelijke agenda. De meeste problematische toepassingen van deepfakes zijn al verboden of juridisch ingekaderd. De handhaving van die rechtsregels is echter omvangrijk en complex. Ook omdat handhaving pas aan de orde komt als het kwaad al is geschied.

Een deepfake is beeld, geluid of ander materiaal dat nep is. Met machine learning en artificial intelligence wordt nieuwe digitale content gemaakt uit bestaande video’s, stemmen en afbeeldingen. Kwalitatief goede deepfakes zijn niet of nauwelijks van echt te onderscheiden.

In dit onderzoek is gekeken naar de negatieve toepassingen en gevolgen van deepfake zoals pornografie, fraude en misleiding, haat zaaien, het verspreiden van misinformatie en het beïnvloeden van democratische verkiezingen. Naast kwalijke gevolgen voor direct betrokkenen kunnen deepfakes ook maatschappelijke gevolgen hebben. Daarbij valt te denken aan een afnemend vertrouwen in de media, de democratie en de rechtspraak als van veel digitale content niet meer duidelijk is of het authentiek is.

(Nederlands) Recht goed toegerust

De onderzoekers stellen vast dat het strafrecht over het algemeen goed is toegerust om strafwaardige deepfakes aan te pakken. Zo is fraude plegen via een deepfake-stem van een familielid strafbaar. Ook de Algemene Verordening Gegevensbescherming (AVG) kent verschillende obstakels voor het maken en verspreiden van deepfakes. Denk aan de plicht om geportretteerden ervan op de hoogte te stellen dat zij in een deepfake figureren. De vraag is zelfs of de AVG niet zo moet worden gelezen dat deepfakes per definitie verboden zijn. Bij deepfakes met een onrechtmatig karakter kunnen partijen volgens het Europees Verdrag voor de Rechten van de Mens (EVRM) een beroep doen op twee mensenrechten: artikel 8 EVRM (recht op privacy) en artikel 10 EVRM (recht op vrijheid van meningsuiting).

Handhaving is problematisch

Het kernprobleem van deepfakes is niet de wetgeving zelf, maar de handhaving daarvan. Dat kwam ook in andere WODC-onderzoeken naar voren, zoals over de gevolgen van augmented en virtual reality  en spionageproducten. Handhaving wordt vooral bemoeilijkt doordat nu al een enorme hoeveelheid gemanipuleerd materiaal verschijnt. Experts verwachten dat dat alleen maar toeneemt en steeds moeilijker te detecteren is.

Reguleringsopties

Om onder andere de handhavingsdruk te verlichten, beschrijven de onderzoekers een groot aantal reguleringsopties. Een daarvan is om het produceren, aanbieden, gebruiken en in bezit hebben van deepfake-technologie te verbieden voor de consumentenmarkt. Het huidige recht legt immers niet de ontwikkeling van deepfake en het aanbieden aan banden, maar het gebruik daarvan voor specifieke doeleinden. Het kwaad is dan al geschied. Daarbij speelt een rol dat meer dan 95% van de momenteel gepubliceerde deepfakes tussen burgers mogelijk strafwaardig is.

Brede discussie nodig

De onderzoekers stellen dat voor allerlei vraagstukken rondom deepfakes juridische en organisatorische oplossingen gevonden kunnen worden. Zij wijzen erop dat elke oplossing nieuwe reguleringsvragen met zich mee kan brengen. Een brede politieke en maatschappelijke discussie is dan ook nodig voordat er nieuwe regels worden geïntroduceerd.