Computable.be
  • Thema’s
    • Security & Awareness
    • Cloud & Infrastructuur
    • Data & AI
    • Software Innovation
  • Computable Awards
    • Nieuws Computable Awards
    • Hall of Fame
    • Inzendingen
  • Cybersec e-Magazine
  • Kennisbank
  • Inlog
  • Nieuwsbrief

Deepfakes steeds re­a­lis­ti­scher: hoe verdedig je je ertegen?

22 april 2026 - 10:175 minuten leestijdOpinieSecurity & Awareness
Stefaan Van Hoornick
Stefaan Van Hoornick

Blog – Deepfakes, zoals valse foto’s of videoberichten, doen al jaren de ronde op het internet. Lange tijd was het niet extreem moeilijk om een deepfake te herkennen, maar door de doorbraak van AI zien ze er steeds realistischer uit. Om een geloofwaardige deepfake te maken, volstaat het om een persoon te screenen via info en beelden op social media. Hoe ga je hiermee om? En hoe vermijd je dat je morgen zelf in de val trapt?

Onlangs kwam aan het licht dat onze eigen koning Filip gebruikt is in een deepfake-campagne. Zo kregen bedrijfsleiders en personen die een connectie met het koningshuis hebben, de vraag om voor een goede zaak financiële steun te bieden. In werkelijkheid waren de berichten afkomstig van oplichters die zich voordeden als koning Filip of als inlichtingenchef Stéphane Dutron. Om het nog realistischer te maken, nodigden de fraudeurs hun slachtoffers zelfs uit voor een videogesprek met de koning. De beelden zijn wellicht met AI-technologie gegenereerd. Uiteindelijk wist de meerderheid de valse communicatie te doorzien, maar toch zou er ook geld betaald zijn.

Deepfakes hoeven overigens niet altijd bekende figuren te zijn. Een Vlaamse ondernemer kwam vorig jaar uit op een campagne van Noord-Koreaanse agenten die met valse sollicitaties binnen wilden dringen in technologiebedrijven. Ze bouwden zorgvuldig nepprofielen op en lieten sporen achter zodat het voor screeningprogramma’s leek alsof het echte personen waren. En daar bleef het niet bij, want ze namen ook deel aan online interviews via valse videobeelden.

Gezichten wisselen tijdens videogesprek

Beide verhalen maken duidelijk dat AI-technologie een tweesnijdend zwaard is. Enerzijds helpt AI ons om productiever te zijn en ook in ons privéleven duiken allerlei leuke toepassingen op. In het kader van cybersecurity helpt de technologie bedrijven om zich te wapenen tegen hackers.

Maar anderzijds gebruiken ook cybercriminelen en fraudeurs AI om aanvallen en misleidingen echter dan ooit te maken. Door simpelweg de online kanalen van een potentieel slachtoffer te screenen, kunnen oplichters een model trainen om een persoon na te bootsen. Nadien verzenden ze een bericht naar een medewerker met een uitnodiging voor een videogesprek. AI wisselt het gezicht van de gesprekspartner in realtime, terwijl de persoon in kwestie de hele tijd met de hacker zit te praten. Deze deepfakes maken social engineering met de dag uitdagender.

Deepfakes kunnen op tal van manieren schade aanrichten. Ze kunnen een vorm van phishing zijn waarbij medewerkers gemanipuleerd worden om informatie over zichzelf of het bedrijf te delen. Of ze gebruiken het gezicht van een bekend persoon om valse info te verspreiden. Vervalsingen dienen daarnaast om te misleiden en financiële fraude te plegen, zoals in het geval van koning Filip. En het is ook een methode om mensen in een slecht daglicht te stellen en af te persen.

Tips om jezelf te beschermen

Dat klinkt allemaal heel duister, maar wat kan je ertegen doen? Veel deepfakes zijn gelukkig nog wel te herkennen, maar je kunt nooit met zekerheid voorkomen dat je morgen in de val trapt. Met de volgende tips kan je de risico’s wel beperken:

  • Pas altijd het Zero Trust-principe toe: vertrouw niet alles wat je ziet of hoort. Als je twijfelt over een videogesprek en je hebt het telefoonnummer van je gesprekspartner, bel dan even op om zijn/haar identiteit te verifiëren. Controleer ook de berichten die je krijgt. Als iemand je via WhatsApp uitnodigt voor een Zoom-call en jullie die kanalen anders nooit gebruiken, dan kan dit wijzen op het werk van een oplichter.
  • Verzorg je basissecurity: klinkt logisch, maar je maakt het hackers heel gemakkelijk als je dit niet op orde hebt. Denk aan complexe wachtwoorden en multi-factor authenticatie.
  • Blijf altijd alert: een oproep van een onbekend nummer? Laat dan gerust bellen, zodat de beller een voicemailbericht moet inspreken. Voeg eventueel een digitaal watermerk toe aan foto’s en video’s die je via social media deelt. Dek je webcam af wanneer je deze niet gebruikt, goed voor privacy maar helpt minder tegen deepfakes omdat fraudeurs vaak beeldmateriaal gebruiken dat je zelf al ooit online hebt gezet (LinkedIn, Instagram). En let altijd op verdachte details in berichten, van een vreemde zinsstructuur tot een klemtoon of woordgebruik dat je niet herkent.
  • Zorg voor goede security: op bedrijfsniveau is het belangrijk dat organisaties security echt ernstig nemen. Zeker nu hackers AI gebruiken, moeten we proberen om hen altijd een stapje voor te blijven. Werk je met AI-agents? Dan moet je die op dezelfde manier beschermen als je menselijke workforce. Pas altijd en overal Zero Trust toe.

  • Spreek een codewoord af: Voor kritieke bedrijfsprocessen (zoals noodbetalingen) kan een afgesproken ‘safe word’ wonderen doen. Als de stem aan de andere kant van de lijn het woord niet kent, weet je dat het foute boel is.

  • Vraag om een ‘profiel-check’: Huidige realtime deepfakes hebben vaak moeite met zijwaartse bewegingen. Heb je twijfels tijdens een videocall? Vraag de persoon om zijn of haar hoofd volledig naar links of rechts te draaien. Vervormingen bij de neus of kaaklijn verraden vaak de AI.

Deepfakes zijn een essentieel onderdeel van het dreigingslandschap dat aan het groeien is onder impuls van AI. We moeten ook beseffen dat iedereen een potentieel slachtoffer is. Van grote tot kleine organisaties, van industriële bedrijven tot ziekenhuizen, van directie tot medewerkers … Helaas bestaat er geen miraculeuze remedie tegen deepfakes en andere AI-dreigingen. Het enige wat we kunnen doen is onze securitystack optimaliseren en vooral kritisch en alert blijven, zodat we op een bewuste en veilige manier met elkaar kunnen communiceren.


Stefaan Van Hoornick is head of solutions engineering bij TrendAI

Meer over

DeepfakeKunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Meer lezen

    Palo Alto Networks bouwt breach preventie uit
    Security & Awareness

    Cyberbeleid gaat veel verder dan technologie

    Security & Awareness

    ChipSoft bevestigt lek medische data via cloud­plat­form

    Security & Awareness

    Ransomware-incident rond ChipSoft nog een mysterie

    Booking.com
    Security & Awareness

    Beveiligingsperikelen blijven Booking.com achtervolgen

    Security & Awareness

    Wereldwijd alarm over Anthropic Mythos

    Security & Awareness

    Anthropic houdt hackmodel Mythos bewust achter slot en grendel

    ...

    Footer

    Direct naar

    • Kennisbank
    • Computable Awards
    • Colofon
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Persberichten

    Contact

    • Contact
    • Nieuwsbrief

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2026 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.be is een product van Jaarbeurs