TLDR
AI-gestuurde deepfakes en voice cloning maken sociale manipulatie onherkenbaar op basis van stem of gezicht. Een Brits ingenieursbureau verloor €25 miljoen in één videovergadering. De tools zijn beschikbaar voor €75/maand. Uw medewerkers kunnen het verschil niet zien — maar uw processen kunnen het voorkomen.
Boardroom-schok: alle vijf de vergaderdeelnemers waren nep
Op een vrijdagmiddag in februari 2024 nam een financieel medewerker van het Britse ingenieursbureau Arup deel aan een videovergadering met zijn CFO en vier andere collega's. Allen vroegen hem een internationale overboeking van HK$200 miljoen — circa €25 miljoen — te autoriseren. De gezichten klopten. De stemmen klopten. De context klopte. De medewerker autoriseerde de overboeking.
Geen enkele deelnemer aan die videovergadering was echt. De CFO was een AI-gegenereerde deepfake, volledig gesynchroniseerd met audio en beweging. De vier collega's waren replica's van werknemers die Arup in dienst had. De aanval gebruikte publiek beschikbare beeldmateriaal — LinkedIn-foto's, bedrijfsvideo's, persberichten — om overtuigende digitale dubbelgangers te bouwen. De medewerker deed precies wat zijn protocollen hem leerden: hij keek en luisterde. Hij zag en hoorde zijn CFO. Dat was voldoende.
Drie maanden later probeerden criminelen Ferrari-CEO Benedetto Vigna telefonisch te impersoneren richting een directielid. De gekloonede stem klonk exact. De aanval werd gestopt doordat de aanvaller één vraag niet kon beantwoorden: een referentie aan een specifiek boek dat Vigna en zijn gesprekspartner hadden gelezen. Arup had dat soort verificatiemechanisme niet.
De democratisering van bedrog: €75 per maand
De technische drempel voor deze aanvallen is structureel gedaald. ElevenLabs en vergelijkbare voice-cloning tools vereisen drie seconden audio — voldoende om aanwezig te zijn in een bedrijfsvideo, een podcast of een LinkedIn-post — om een overtuigende stемkloon te genereren. Voor video-deepfakes bestaan opensourcetoepassingen die met een handheld grafische kaart draaien. Op darkweb-marktplaatsen zijn criminele AI-varianten beschikbaar — WormGPT, FraudGPT — voor €75 tot €200 per maand. Deze tools zijn getraind op phishing-datasets en produceren taalkundig foutloze, contextbewuste e-mails in elke gewenste stijl.
Dat laatste punt verdient nadruk. Traditionele phishing was herkenbaar aan taalfouten, onlogische contexten en generieke boodschappen. AI-gegenereerde phishing gebruikt openbare informatie — LinkedIn-profielen, jaarverslagen, persberichten, sociale media — om berichten te schrijven die de ontvanger persoonlijk kennen. IBM X-Force stelde in 2024 vast dat AI-gegenereerde phishingmails een 23 procent hogere klikratio halen dan handgeschreven varianten. Uw medewerkers leren phishing herkennen aan kenmerken die in AI-aanvallen niet meer voorkomen.
"Stem en gezicht zijn geen bewijs van identiteit meer. Ze zijn een aanvalsvector. Uw verificatieprotocollen zijn ontworpen voor een wereld die niet meer bestaat."
Waarom dit ertoe doet
Social engineering was vóór het AI-tijdperk al verantwoordelijk voor 73 procent van de datalekken in de EMEA-regio (Verizon DBIR 2024). AI maakt twee dingen die al werkte, nog effectiever: geloofwaardigheid en schaal. Geloofwaardigheid, omdat deepfakes en gekloonede stemmen de primaire verificatiemethoden — zien en horen — omzeilen. Schaal, omdat één crimineel nu gelijktijdig duizenden gepersonaliseerde aanvallen kan uitvoeren die elk op een specifiek doelwit zijn toegesneden.
De financiële sector is bijzonder kwetsbaar. AFM en DNB signaleerden in een gezamenlijke circulaire uit 2025 dat de combinatie van AI-gegenereerde CEO-fraude en de hoge autorisatiedrempel voor internationale overschrijvingen leidt tot een structureel verhoogd risico bij financieel-administratieve medewerkers. Organisaties die telefonische instructies als afdoende autorisatie accepteren voor transacties boven €50.000, beschikken niet over een aanvaardbaar controleniveau.
De aanvallen richten zich niet alleen op financiële medewerkers. CISO's worden geïmpersoneerd om IT-afdelingen toegang te laten verlenen. HR-managers ontvangen deepfake-audio van directeuren die vragen om spoedoverschrijvingen voor noodgevallen. Leveranciers worden geïmiteerd om bankgegevens te wijzigen. Elk scenario heeft gemeen dat de aanvaller de menselijke neiging exploiteert om gezag te vertrouwen — versterkt met geloofwaardige auditieve en visuele bevestiging.
Beleidscontext
De EU AI Act (van toepassing vanaf augustus 2026 voor de relevante bepalingen) classificeert synthetische content zoals deepfakes als "beperkt risico" met transparantieverplichtingen: content moet als AI-gegenereerd worden gelabeld. Die verplichting richt zich op de maker — niet op de crimineel die gestolen audiomateriaal gebruikt. Voor bestuurders is de relevante norm de NIS2-richtlijn Art. 20, die verplicht stelt dat organisaties hun managementorganen trainen in cybersecurity-awareness, inclusief actuele aanvalsmethoden. AI-gestuurde social engineering valt expliciet in scope van die trainingsplicht.
De AFM/DNB-circulaire 2025 inzake operationeel risicobeheer en fraudepreventie stelt dat financiële instellingen multi-channel autorisatievereisten moeten implementeren voor betalingsinstructies boven de vastgestelde drempels. Vergelijkbare verwachtingen gelden in toenemende mate voor niet-financiële sectoren onder NIS2. De vraag is niet of uw sector dit vereist — de vraag is hoe lang het duurt voordat een incident aantoont dat uw huidige autorisatieniveaus onvoldoende zijn.
Wat kunt u morgen doen?
- Stel out-of-band verificatie in als beleid voor alle financiële autorisaties. Geen enkele betalingsinstructie boven een vastgesteld drempelbedrag — stel €25.000 als beginpunt — wordt uitgevoerd op basis van een enkel communicatiekanaal, hoe overtuigend de instructie ook klinkt. Verificatie vindt altijd plaats via een afzonderlijk, vooraf vastgesteld kanaal: een terugbelverzoek naar een geregistreerd nummer, bevestiging via bedrijfsmailsysteem, of een vastgelegde autorisatieworkflow.
- Schrap stem en gezicht als enige identificatiemethode. Een beleidsupdate die uw financieel-administratieve medewerkers expliciet instrueert dat telefonische of video-instructies van directeuren geen afdoende autorisatie zijn voor afwijkende transacties. Dit is geen wantrouwen — het is procesprotocel dat uw medewerkers beschermt tegen gemanipuleerd worden terwijl ze de regels volgen.
- Voer een live deepfake-demonstratie uit voor uw bestuur en financieel team. Abstracte bewustzijn werkt niet. Zelf zien hoe overtuigend een deepfake-videogesprek eruitziet, verandert het risicobesef structureel. Organiseer een sessie waarbij een specialist live demonstreert hoe een gekloonede stem of videogesprek wordt gegenereerd. E-learning over dit onderwerp is tien keer minder effectief dan een live demo die twijfel zaait op het juiste moment.
- Installeer een codewoordsysteem voor gevoelige telefonische autorisaties. Ferrari overleefde een CEO-impersonatie-aanval omdat de aanvaller een persoonlijke referentie niet kon beantwoorden. Een mondeling geheim woord of persoonlijke referentie — uitgewisseld buiten normale werkuren via een versleuteld kanaal — is verrassend effectief als noodrem. Robuust genoeg voor crisissituaties, simpel genoeg om te onthouden.
- Herzie de 4-ogen-principes en autorisatielimieten voor betalingssystemen. Wanneer heeft u voor het laatst uw ERP-betalingsautorisaties geaudit? Welke medewerkers kunnen welk bedrag autoriseren zonder second opinion? AI-fraude richt zich op de gaten in die matrix — enkelvoudige autorisatie voor grote bedragen, nooduitzonderingen, vervangende tekenbevoegdheid bij afwezigheid van de normale verantwoordelijke.
Bronnen: Arup deepfake-aanval Hong Kong — CNN / South China Morning Post, februari 2024 (HK$200 miljoen verlies); Ferrari CEO voice cloning-poging — Bloomberg, juli 2024 (Benedetto Vigna impersonatie); IBM X-Force Threat Intelligence Index 2024 (AI phishing +23% klikratio); Verizon Data Breach Investigations Report 2024 EMEA-editie (73% social engineering); ElevenLabs technische documentatie — voice cloning benchmark 2025 (3 seconden audio); WormGPT / FraudGPT marktanalyse — SlashNext State of Phishing 2024 (€75–200/maand); AFM/DNB gezamenlijke circulaire 2025 inzake AI-fraude en betalingsrisico; EU AI Act Art. 50 (synthetische-content-transparantie); NIS2-richtlijn Art. 20 (bestuurstraining cybersecurity)