Deepfakes, de nieuwe vorm van digitale manipulatie

Het is gemakkelijker te geloven wat je ziet dan wat je wordt verteld. Het is om deze reden dat "deepfakes" je goedgelovigheid en onschuld kunnen uitbuiten.
Deepfakes, de nieuwe vorm van digitale manipulatie
Valeria Sabater

Geschreven en geverifieerd door de psycholoog Valeria Sabater.

Laatste update: 27 december, 2022

Het lijkt op hekserij, maar is het niet. In feite is het techniek van de toekomst, een apparaat voor kunstmatige intelligentie dat het waard is om in de boeken van Arthur C. Clarke te worden opgenomen. Deepfakes zijn die video’s die digitaal zijn bewerkt en waarmee je het gezicht van iemand kunt vervangen door een ander gezicht.

Het resultaat is zo perfect dat je iedereen kunt laten zien die iets zegt of doet dat ze nooit hebben gezegd of gedaan.

De meesten gebruiken deze bron om grappen te maken met hun vrienden en familie. Immers, wie heeft zijn gezicht niet op dat van een beroemdheid als Lady Gaga, Leonardo DiCaprio, Captain America of Scarlett Johansson, enz. gezet.

Ze doen dat op zo’n manier dat je plotseling merkt dat je danst in een muziekvideo of de hoofdrol speelt in een clip uit een beroemde film.

Deze technologie kan echter zowel voor onschadelijke als criminele doeleinden worden gebruikt. Een voorbeeld van dat laatste is dat van Raffaela Spone, een 50-jarige vrouw die in een stad in Pennsylvania woont.

Deze huisvrouw lanceerde een lastercampagne tegen drie leden van het cheerleaderteam van haar dochter. In feite maakte ze belastende nepbeelden van de meisjes en verspreidde ze.

Mevr. Spone werd gearresteerd en beschuldigd van cyberpesten van minderjarigen. Haar gemanipuleerde foto’s werden verspreid door de school en sociale netwerken. Gelukkig wist de politie echter dat ze waren gemaakt met kunstmatige-intelligentietechnologie.

Een ander voorbeeld is een video van Obama die op YouTube circuleerde waarin hij zei dat Donald Trump een idioot was. Het zorgde voor een grote mediacontroverse. In werkelijkheid was het niet waar, het was in feite een experiment van de Universiteit van Washington.

Het toonde echter de effecten aan die de manipulatie van video’s door een kunstmatige intelligentie-algoritme kan produceren.

meisje met binaire getallen die deepfakes symboliseren

Deepfakes en het belang van kritisch denken

Deepfakes zijn in de mode. Het gezicht van de ene persoon op het lichaam van een ander plaatsen om iets te zeggen of te doen, is inderdaad behoorlijk ingenieus. In feite zegt een urban legend dat als je het woord deepfake drie keer zegt, Tom Cruise zal verschijnen.

De University of Victoria (Canada), de Nottingham Trent University (Verenigd Koninkrijk) en de LUISS Guido Carli University (Italië) hebben echter onderzoek gedaan (Engelse link) dat beweert dat fotografische manipulatie iets is dat al sinds de 19e eeuw wordt gedaan.

Toch heeft de komst van deepfakes een keerpunt in dit fenomeen gemarkeerd. Omdat ze in veel gevallen worden gebruikt voor criminele doeleinden, pornografie, nepnieuws en financiële fraude. Het probleem is zelfs zo ernstig geworden dat er in de nabije toekomst nieuwe wetten moeten worden ingevoerd.

In dit digitale tijdperk is misleiding, hetzij door vals nieuws of afbeeldingen, aan de orde van de dag. Bovendien is de maatschappelijke impact enorm. Daarom moeten we voorbereid zijn om deze manipulatieve apparaten te detecteren.

Wanneer het beeld meer kracht heeft dan woorden (en de waarheid)

Het is gemakkelijker te geloven wat je ziet dan wat ze je vertellen. Deepfakes veranderen de waarheid door visuele documenten te manipuleren. Een voorbeeld deed zich voor in Venetië tijdens de pandemie. Er werden beelden gepubliceerd van zwarte zwanen die rustig door het water van de grachten bewogen.

Ook zagen we vreemd gevormde vissen in de ondergelopen straten. Daar was echter niets van waar. De zwanen waren het product van kunstmatige intelligentie. In de wereld van desinformatie zijn deepfakes inderdaad een grote bondgenoot.

Pornografische inhoud en deepfakes

Deepfake-technologie wordt vaak gebruikt als middel voor intimidatie en wraak. Wat is er voor dit soort gedrag beter dan het maken van pornografische video’s? In feite kiezen mensen gewoon een clip en plaatsen ze het gezicht van wie ze maar willen.

Dan komt de volgende stap, het distribueren ervan. Vaak gebruikt men pornografische video’s, gemaakt met deepfake-technologie, in school- en werkomgevingen. Het is een zeer effectieve vorm van intimidatie.

Het hacken van de werkelijkheid

Deepfakes ontstonden in 2007, net voordat nepnieuws een veelbesproken onderwerp werd. Op dit moment knoeien al deze trends met onze realiteit.

Men gebruikt ze in lastercampagnes om publieke figuren aan te vallen. Sterker nog, volgens een publicatie in het Crime Science Journal (Engelse link) gaat het bij deepfakes voor criminele doeleinden elk jaar om enorme bedragen.

Naar schatting circuleren er momenteel meer dan 50.000 deepfakes op internet. Bovendien hechten we veel waarde aan sommige deepfakes.

vrouw kijkt naar deepfakes

Wat kunnen we doen aan dit soort technologie?

Landen als China hebben het gebruik van dit soort kunstmatige intelligentie verboden. Ook heeft Facebook een fonds opgericht van meer dan tien miljoen dollar met de bedoeling tools te genereren om de bevolking tegen misbruik ervan te beschermen.

Microsoft stelt bijvoorbeeld voor dat we zijn Video Authenticator gebruiken om erachter te komen of een video of een afbeelding is gemanipuleerd.

We hebben nog twee laatste opmerkingen over dit onderwerp. Ten eerste magje nooit je toevlucht nemen tot dit soort technologie voor intimidatie of wraak.

Ten tweede moet je de vaardigheid van kritisch denken ontwikkelen om dit soort berichten te benaderen. Want in een wereld waarin de realiteit steeds meer gemanipuleerd wordt, kan alleen een filter van voorzichtigheid je beschermen...


Alle siterte kilder ble grundig gjennomgått av teamet vårt for å sikre deres kvalitet, pålitelighet, aktualitet og validitet. Bibliografien i denne artikkelen ble betraktet som pålitelig og av akademisk eller vitenskapelig nøyaktighet.


  • Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
  • Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). “Deepfakes: Trick or treat?”. Business Horizons63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
  • Roose, Kevin (4 March 2018). “Here Come the Fake Videos, Too”. The New York Times. ISSN 0362-4331

Deze tekst wordt alleen voor informatieve doeleinden aangeboden en vervangt niet het consult bij een professional. Bij twijfel, raadpleeg uw specialist.