Executive Briefing Executive Masterclass Krisensimulation Bücher Insights Über Mich
Masterclass anfragen
← Alle Beiträge

Deepfake-CEO-Fraud: Warum klassische Vier-Augen-Prinzipien versagen

Deepfake-CEO-Fraud: KI-generierter Videocall täuscht Mitarbeiter über eine scheinbare Zahlungsfreigabe

Lange war „CEO-Fraud“ relativ klar: eine gefälschte E-Mail, eine erfundene Dringlichkeit, eine Zahlungsanweisung an Finance. Das Problem heute ist nicht mehr nur die gefälschte Mail. Das Problem ist die Kombination aus kompromittierter Kommunikation, glaubwürdiger Vorarbeit, KI-generierter Sprache, geklonter Stimme und im Extremfall einem synthetischen Videocall.

Der Angriff sieht nicht mehr aus wie Social Engineering. Er sieht aus wie legitime Führungskommunikation.

55,5 Mrd. $
gemeldete globale BEC-Exponierung
2013 – 2023 (FBI IC3)
893 Mio. $
KI-bezogene Betrugsschäden
im Jahr 2025 (FBI IC3)
25 Mio. $
Schaden bei Arup nach einem
Deepfake-Videocall (2024)

Das FBI warnt ausdrücklich, dass Kriminelle generative KI nutzen, um Betrug in größerem Maßstab und mit höherer Glaubwürdigkeit zu betreiben. Die NCSC beschreibt, dass KI bereits eingesetzt wird, um Volumen und Wirkung von Cyberangriffen zu erhöhen; die ENISA ordnet Social Engineering weiterhin als zentrale Angriffsklasse ein und nennt BEC, Impersonation und Vishing als relevante Ausprägungen mit direktem Finanzschaden.


Warum klassische Vier-Augen-Prinzipien hier versagen

Viele Unternehmen glauben, sie seien durch das Vier-Augen-Prinzip gut geschützt: Eine Person initiiert, eine zweite genehmigt. Das Problem ist nur, dass beide Personen oft denselben manipulierten Kontext sehen. Wenn beide denselben scheinbar authentischen Videocall erlebt haben, denselben „CEO“ gehört haben oder denselben Chat-Verlauf für echt halten, dann bestätigen sie nicht unabhängig die Legitimität des Vorgangs. Sie bestätigen nur gemeinsam dieselbe Fälschung.

Was das Vier-Augen-Prinzip tatsächlich prüft

  • Betrag und Währung
  • Empfängerkonto und Bankverbindung
  • Budget- und Kostenstellenzuordnung
  • Formale Zuständigkeit und Freigabegrenzen

Was Deepfakes gezielt manipulieren

  • Wahrnehmung der Authentizität des Auftrags
  • Autoritätsgefühl („das war wirklich der CEO“)
  • Kontext (Videocall mit bekannten Kolleg:innen)
  • Dringlichkeit als Entscheidungsabkürzung

Genau darin liegt die Schwäche traditioneller Freigabelogik: Bei Deepfake-CEO-Fraud wird nicht primär der Zahlungsvorgang manipuliert, sondern die Wahrnehmung der Beteiligten. Das ist eine andere Angriffsebene. Ein klassischer Kontrollpunkt im ERP oder Treasury-System allein reicht nicht mehr aus.


Vier Angriffsmuster, die Sie kennen sollten

1

Der synthetische Executive-Call

Ein falscher Anruf oder eine falsche Videokonferenz mit einer scheinbar bekannten Führungskraft. Das FBI beschreibt bereits seit 2022, dass Täter virtuelle Meeting-Plattformen für BEC nutzen — mit Standbildern ohne Audio oder mit „deep fake audio“, während parallel per Chat Zahlungsanweisungen erteilt werden.

Beispiel Arup (2024): Ein Mitarbeiter überwies nach einem Deepfake-Videocall rund 25 Millionen US-Dollar. Entscheidend war nicht die Fälschung allein, sondern das Setting: Videocall, Zeitdruck, mehrere scheinbar bekannte Personen, vertraute Rollen. Aus dieser Normalität entsteht das Opfer.

2

Kompromittierte Mailbox plus Bestätigungsstimme

Zuerst wird ein legitimer Kommunikationskanal kompromittiert — etwa per Spearphishing oder über eine übernommene Mailbox. Dann folgt eine zweite Ebene: eine geklonte Stimme des CEOs oder CFOs, die den Vorgang „nur noch kurz bestätigt“.

Das ist der Moment, in dem viele Vier-Augen-Prozesse kippen. Die zweite Person im Prozess hört keine Warnung — sondern scheinbar die Bestätigung der höchsten Autorität im Unternehmen.

3

Die „Executive Exception“

Der CEO braucht „nur dieses eine Mal“ eine schnelle Sonderfreigabe. Kein Ticket, kein ERP-Weg, kein sauberer Freigabepfad — nur ein direkter Auftrag per Anruf, Chat oder Sprachnachricht.

Nicht der Regelprozess ist das größte Risiko, sondern die Ausnahme vom Regelprozess. Genau weil Täter auf Dringlichkeit und Autorität setzen, werden etablierte Prozesse bewusst umgangen.

4

Ausweitung über Finance hinaus

Deepfake-CEO-Fraud endet nicht bei Überweisungen. Im Blick sind genauso: Passwort-Resets, Helpdesk-Freigaben, Notfallzugänge, Stammdaten-Änderungen, Offenlegung sensibler Dokumente oder das Einschleusen falscher Bewerber in privilegierte Rollen.

2025 gingen beim IC3 mehr als 22.000 Beschwerden mit KI-Bezug ein — mit gemeldeten Schäden über 893 Millionen US-Dollar. Wer Deepfake-Fraud nur als „Treasury-Problem“ behandelt, denkt zu klein.

Und wenn ein Angriff trotz aller Prävention erfolgreich ist, wird aus einem Fraud-Vorfall schnell eine Unternehmenskrise mit eigener Entscheidungsdynamik in den ersten zwei Stunden.


Warum Menschen Deepfakes schlechter erkennen, als sie glauben

Viele Abwehrkonzepte setzen implizit darauf, dass Mitarbeitende „den Fake schon merken werden“. Genau das ist gefährlich. Die Studie „Fooled twice“ zeigte: Menschen erkennen Deepfakes nicht zuverlässig und überschätzen ihre Fähigkeit dazu gleichzeitig. Weder erhöhte Aufmerksamkeit noch finanzielle Anreize verbesserten die Erkennungsleistung substanziell.

Das FBI betont, dass generative KI menschliche Fehlermerkmale aus Betrugsversuchen entfernen kann — sprachliche Auffälligkeiten, unnatürliche Formulierungen, typische Phishing-Marker. Dadurch verschwinden viele der klassischen Warnsignale, auf die Awareness-Trainings jahrelang gesetzt haben.

Dazu kommt die Unternehmensrealität: schlechte Audioqualität, mobile Calls, Reiseumgebungen, Stress, Hierarchiedruck, fragmentierte Informationen. Kein forensisches Labor. Europol verweist in seinem Deepfake-Bericht auf die Fooled-Twice-Forschung und warnt ausdrücklich davor, dass wachsende Bekanntheit von Deepfakes allein die Erkennung nicht automatisch verbessert.

Awareness bleibt sinnvoll — ist aber kein tragfähiger Primärschutz.


Die wirksame Antwort: Prozessdesign statt Menschenkunde

Wenn Menschen synthetische Stimmen und Videos nicht zuverlässig entlarven können, muss die Organisation das Problem anders lösen: nicht durch bessere Intuition, sondern durch bessere Architektur. Fünf Prinzipien haben sich bewährt.

1) Authentizität von Freigabe trennen

Für Hochrisiko-Vorgänge braucht es einen unabhängigen Authentizitätsnachweis, der nicht aus derselben Kommunikationskette stammt wie die Anweisung selbst. Das FBI empfiehlt explizit sekundäre Kanäle und Rückrufe an verifizierte Kontaktdaten — nicht an Nummern oder Links aus der laufenden Nachricht.

Praktisch: Kein Zahlungsauftrag, kein Kontowechsel, kein privilegierter Reset und keine sensiblen Datenfreigaben allein auf Basis von E-Mail, Chat, Voice Note oder Videocall.

2) Vier-Augen-Prinzip zum Zwei-Kanal-Prinzip erweitern

Das klassische Vier-Augen-Prinzip ist nicht nutzlos — es ist nur unvollständig. Was heute gebraucht wird, ist ein Vier-Augen-plus-zwei-Kanäle-Prinzip: Zwei Personen dürfen nicht denselben manipulierten Input prüfen, sondern müssen auf unabhängige Vertrauensquellen zugreifen.

Praktisch: verifizierter Rückruf über im Verzeichnis hinterlegte Nummern, transaktionsgebundene Freigaben nur im ERP/TMS statt per Chat, Cooling-off-Zeiten für neue Empfängerkonten, zusätzliche Prüfung bei Stammdatenänderungen, dokumentierte Zweitverifikation bei jedem „Executive Override“.

3) Identität härten — nicht nur Prozesse

Deepfake-Fraud beginnt oft nicht mit dem Deepfake, sondern mit vorgelagerter Kompromittierung: Mailbox-Zugriff, Kalenderdaten, Organigramme, Gesprächsmuster, Signaturen, Abwesenheiten. Deshalb gehört härtere Identitätssicherheit zwingend zur Abwehr. NIST verweist ausdrücklich auf phishing-resistente Authentisierung für besonders sensible Anwendungen und privilegierte Nutzer.

Praktisch: Executive-Accounts, Finance-Leads, Assistenzrollen, Helpdesk-Privilegien und Administratoren gehören in die höchste Authentisierungsklasse (FIDO2/Passkeys, Smartcard, zertifikatsbasiert) — nicht Passwort plus SMS-Code.

4) Hochrisiko-Verben in geschützte Workflows zwingen

Ein häufiger Fehler: Unternehmen haben zwar ein ERP, stößt kritische Entscheidungen aber über E-Mail, Messenger, Voice Notes oder Videocalls an. Genau dort müssen die Leitplanken enger werden.

Praktisch: Hochrisiko-Verben — zahlen, Konto ändern, Zugang freigeben, Reset durchführen, Datei exportieren, Vertrag verschicken, Notfallausnahme erteilen — sind nur innerhalb definierter Systeme und Rollenmodelle zulässig. Führungskräfte dürfen Dringlichkeit kommunizieren; die Ausführung läuft trotzdem über den geschützten, protokollierten Prozess.

5) Ausnahmen schwerer machen als den Regelprozess

Deepfake-Angriffe leben von Zeitdruck und Autorität. Deshalb müssen Unternehmen nicht nur Normalfälle kontrollieren, sondern vor allem Ausnahmefälle. Wenn ein CEO „heute sofort“ eine Abweichung vom Standardprozess verlangt, muss genau das ein eigenes Risikosignal sein.

Kontrollsatz: Nicht „bei Vorstandsanweisung beschleunigen“ — sondern „bei Vorstandsanweisung ohne Standardweg eskalieren“. Das ist kein Misstrauen gegen die Führung. Es ist moderne Resilienz: Gerade weil Hierarchie als Waffe missbraucht wird, muss sie prozessual entwaffnet werden.


Ein pragmatischer Zielzustand

Ein belastbarer Zielzustand sieht nicht spektakulär aus, ist aber hochwirksam:

  • Ein CEO kann keine Zahlung allein per Nachricht auslösen.
  • Ein CFO kann keinen Lieferantenwechsel außerhalb des Systems freigeben.
  • Ein Helpdesk kann keine privilegierten Resets allein auf Basis eines Anrufs durchführen.
  • Eine Assistenz kann Geheimhaltung plus Dringlichkeit nicht als Grund akzeptieren, Prozesse zu überspringen.
  • Und niemand im Unternehmen muss „Fake-Stimmen erkennen können“, damit der Schutz funktioniert.

Das ist der Unterschied zwischen Awareness-orientierter und kontrollorientierter Abwehr:
Die erste hofft auf richtige Intuition. Die zweite baut auf verlässliche Struktur.


Fazit

Deepfake-CEO-Fraud ist nicht deshalb gefährlich, weil die Technologie futuristisch wirkt. Er ist gefährlich, weil er eine Grundannahme vieler Unternehmen zerstört: dass Menschen Autorität, Stimme und Bild schon richtig einordnen werden. Das werden sie oft nicht. Und genau deshalb reichen klassische Vier-Augen-Prinzipien nicht mehr aus, wenn beide Augen auf dieselbe Täuschung schauen.

Die wirksame Antwort liegt nicht in mehr Skepsis allein, sondern in unabhängigen Verifikationswegen, harten Workflow-Grenzen, stärkerer Identitätssicherheit und klar kontrollierten Ausnahmen. Die gute Nachricht: All das ist organisatorisch machbar. Die schlechte: Viele Unternehmen haben damit noch nicht ernsthaft begonnen.

Tabletop- und Live-Übungen sollten nicht nur Phishing, sondern ausdrücklich auch Voice-, Video- und Chat-Impersonation simulieren. Nur wer den Ausnahmefall geübt hat, trifft unter Deepfake-Druck die richtige Entscheidung — oder stoppt den Prozess rechtzeitig.