Münchener Verein Versicherungsgruppe

Vertrauen 2.0 – Deepfakes, CEO-Fraud & Co.

… und was Maklerinnen und Makler jetzt wissen müssen

Ein Montagmorgen, 9 Uhr. Das Telefon klingelt. Am anderen Ende: die Geschäftsführerin. Dringende Zahlung, vertrauliche Angelegenheit, keine Zeit für Rückfragen. Die Stimme klingt echt, die Nummer stimmt, der Tonfall auch. Also wird überwiesen. 25 Millionen Dollar. Erst Tage später wird klar: Das war nicht die Geschäftsführerin. Das war eine KI.

Was wie ein schlechter Krimi klingt, ist 2024 beim Ingenieurkonzern Arup in Hongkong tatsächlich passiert. Und es ist kein Einzelfall: Deepfake-Betrug ist längst keine Science-Fiction mehr, sondern bittere Realität und nicht mehr nur ein Problem für internationale Konzerne.

Denn die Kriminellen haben ihre Zielgruppe erweitert. Laut einem Bericht des Wirtschaftsmagazins „econo“ erleben gerade kleine und mittlere Unternehmen eine enorme Angriffswelle. Die Angreifer kundschafteten gezielt aus, wann Geschäftsführer und Unternehemnsinhaber abwesend seien, und attackierten dann Mitarbeitende mit Phishing und Deepfake-Anrufen. Warum? Weil KMUs oft weniger Cybersicherheitsressourcen haben als Konzerne, aber trotzdem attraktive Geldsummen bewegen.

Versicherungsmaklerinnen und -makler sind dabei besonders attraktive Zielscheiben: Sie verwalten sensible Kundendaten, haben Zugriff auf Finanztransaktionen und sind als Vertrauenspersonen ideal für Social-Engineering-Angriffe. Für Maklerinnen und Makler bedeutet das zweierlei: Sie selbst sind Ziel solcher Angriffe. Und ihre Kundinnen und Kunden erst recht.

Was sind Deepfakes überhaupt?

Deepfakes sind mit Künstlicher Intelligenz erstellte Medieninhalte (Bilder, Videos, Audioaufnahmen), die täuschend echt wirken. Die Technologie dahinter heißt „Generative AI“ und kann Gesichter austauschen, Stimmen klonen und Personen Dinge sagen oder tun lassen, die sie nie gesagt oder getan haben.

Noch vor fünf Jahren brauchte man dafür Expertenwissen und teure Software. Heute reichen ein Laptop, kostenlose Tools wie Midjourney oder ElevenLabs und ein paar Minuten Audio- oder Videomaterial. Ein YouTube-Interview, ein LinkedIn-Video, ein Podcast – schon hat man genug Material, um eine Stimme zu klonen oder ein Gesicht zu kopieren.

Das Perfide: Die Fälschungen werden immer besser. Selbst trainierte Fachleute erkennen sie oft nicht mehr auf den ersten Blick.

Die Zahlen lügen nicht: Deepfake-Betrug explodiert

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt bereits eindringlich vor Deepfakes: „Durch Methoden aus dem Bereich der Künstlichen Intelligenz ist es heute deutlich einfacher, Fälschungen mit vergleichsweise wenig Aufwand und Expertise in einer hohen Qualität zu erstellen.“ Was früher Expertenwissen und teure Software erfordert habe, schaffen heute „technisch versierte Laien“.

Auch die Versicherungswirtschaft im Ganzen steht dabei verstärkt im Fokus. Es fließen große Geldsummen, sensible Daten werden verarbeitet und Vertrauen ist die zentrale Währung. Genau das machen sich Kriminelle zunutze. Laut dem „2025 Voice Intelligence & Security Report“ des Sicherheitsunternehmens Pindrop stieg die Zahl synthetischer Sprachangriffe auf Versicherungsunternehmen in den USA im vergangenen Jahr um 475 Prozent.

Wo Maklerinnen und Makler angreifbar sind

Szenario 1: CEO-Fraud 2.0

Der Klassiker mit neuem Anstrich. Früher kamen betrügerische E-Mails im Namen der Geschäftsführung. Heute ruft die „Geschäftsführerin“ persönlich an, mit ihrer echten Stimme. Oder es findet eine Videokonferenz statt, in der alle Teilnehmenden täuschend echt aussehen und klingen.

Für Maklerinnen und Makler bedeutet das: Zahlungsanweisungen, Kontowechsel, dringende Überweisungen: Alles kann gefälscht sein. Auch wenn Stimme, Gesicht und Nummer stimmen.

Szenario 2: Gefälschte Schadensmeldungen

Ein Kunde reicht Fotos eines Autounfalls ein. Alles sieht echt aus: Dellen, Kratzer, kaputte Scheinwerfer. Nur: Der Unfall hat nie stattgefunden. Die Bilder wurden mit KI generiert.

Oder: Ein vermeintlicher Kunde sendet einen Scan seines Personalausweises. Der Ausweis ist echt, aber das Foto darauf wurde ausgetauscht. Die Person auf dem Bild existiert nicht.

Laut Versicherungsbote.de sind solche Fälschungen mit bloßem Auge nicht mehr zu erkennen. Nur spezialisierte forensische Software kann die winzigen Artefakte aufdecken, die KI-Modelle hinterlassen.

Szenario 3: Identitätsdiebstahl bei Kunden

Eine Kundin erhält einen Anruf von „ihrem Versicherungsmakler“: Die Stimme klingt vertraut, die Nummer stimmt. Es geht um eine dringende Vertragsänderung, neue Kontodaten müssen hinterlegt werden. Die Kundin gibt die Daten durch, direkt an Betrüger.

Oder: Ein Kunde bekommt eine E-Mail von seiner „Maklerin“, mit einem Link zu einem vermeintlich wichtigen Dokument. Der Link führt zu einer Phishing-Seite, die Login-Daten abgreift.

Szenario 4: Reputationsschäden

Ein gefälschtes Video taucht auf, in dem ein Makler oder eine Maklerin angeblich dubiose Anlageprodukte bewirbt oder Kundinnen und Kunden schlecht berät. Das Video verbreitet sich in sozialen Medien. Der Schaden für die Reputation ist enorm, auch wenn das Video eine Fälschung ist.

Die Anatomie eines Angriffs

Versicherungsmaklerinnen und -makler sind aus mehreren Gründen attraktive Ziele:

  1. Zugang zu sensiblen Daten: Maklerinnen und Makler verwalten persönliche Informationen, Gesundheitsdaten, Finanzdaten. Ein Goldschatz für Kriminelle.
  2. Vertrauensposition: Kundinnen und Kunden vertrauen ihren Maklerinnen und Maklern. Wenn „die Maklerin“ anruft, wird nicht hinterfragt.
  3. Geldflüsse: Versicherungsprämien, Provisionen, Schadensauszahlungen – überall fließt Geld.
  4. Öffentliche Präsenz: Viele Maklerinnen und Makler sind auf LinkedIn aktiv, haben YouTube-Kanäle, Podcasts oder bieten Webinare Perfektes Material für Deepfakes.

Der typische Ablauf eines Angriffs

Phase 1: Recherche
Kriminelle durchsuchen LinkedIn, Unternehmenswebsites, YouTube-Kanäle. Sie sammeln Namen, Stimmen, Gesichter und Hierarchien. Sie finden heraus, wer Zahlungen freigibt, wer auf Geschäftsreisen ist und wer neu im Team ist.

Phase 2: Vorbereitung
Mit KI-Tools werden Stimmen geklont, Gesichter in Videos eingefügt und E-Mails gefälscht. Die Täter erstellen ein perfektes Abbild der Zielperson.

Phase 3: Der Angriff
Ein Anruf, eine E-Mail oder eine Videokonferenz. Zeitdruck wird aufgebaut, Vertraulichkeit beschworen und Hierarchien ausgespielt: „Die Geschäftsführerin hat gesagt, das muss heute noch raus.“

Phase 4: Die Ausführung
Das Opfer handelt, überweist Geld, gibt Daten preis oder ändert Kontoinformationen. Erst später fällt auf: Das war ein Betrug.

Die Erkennungsmerkmale: Woran man Deepfakes erkennt

Die schlechte Nachricht: Perfekte Deepfakes sind kaum noch zu erkennen. Die gute Nachricht: Die meisten Deepfakes sind nicht perfekt, wenn man genauer hinschaut. Hier sind die Warnsignale:

Audio (Telefonanrufe):

  • Unnatürliche Pausen oder roboterhafter Tonfall
  • Stimme klingt leicht „blechern“ oder wie aus der Konserve
  • Hintergrundgeräusche fehlen komplett (zu sauberer Sound)
  • Emotionen wirken aufgesetzt oder passen nicht zum Kontext
  • Die Person atmet oder schluckt nicht

Video (Videokonferenzen):

  • Unnatürliche Lippenbewegungen (nicht synchron zum Ton)
  • Seltsame Augenbewegungen oder zu wenig Blinzeln
  • Inkonsistente Beleuchtung oder Schatten
  • Gesicht wirkt leicht verschwommen oder „zu glatt“
  • Haare bewegen sich unnatürlich oder gar nicht
  • Zahnreihen sehen merkwürdig aus

E-Mails und Nachrichten:

  • Ungewöhnliche Formulierungen oder Grammatikfehler
  • Ungewohnter Kommunikationsstil
  • Dringlichkeit und Vertraulichkeit werden stark betont
  • Abweichende E-Mail-Adressen (z.B. @gmaiI.com statt @gmail.com)
  • Links oder Anhänge, die nicht erwartet werden

Generelle Red Flags:

  • Zeitdruck: „Das muss sofort erledigt werden!“
  • Vertraulichkeit: „Sprich mit niemandem darüber!“
  • Ungewöhnliche Anfragen: „Überweise auf dieses neue Konto.“
  • Kommunikation außerhalb üblicher Kanäle
  • Fehlende Rückfragemöglichkeiten

Die Schutzmaßnahmen: Was Maklerinnen und Makler jetzt tun sollten

Interne Prozesse verschärfen

Vier-Augen-Prinzip bei Zahlungen: Keine Überweisung über 5.000 Euro ohne zweite Freigabe. Auch nicht, wenn die „Geschäftsführerin“ persönlich anruft.

Codewort-System: Für sensible Telefonate oder Videocalls wird ein vorher vereinbartes Codewort abgefragt. Ohne Codewort gilt: keine Freigabe.

Verifizierung über zweiten Kanal: Wenn eine Zahlungsanweisung per E-Mail kommt, wird sie per Telefon bestätigt. Wenn sie per Telefon kommt, wird sie per E-Mail bestätigt. Mit der ursprünglichen, gespeicherten Nummer, nicht der Nummer, die angezeigt wird.

Feste Freigabeprozesse: Zahlungen, Kontowechsel, Datenänderungen folgen immer dem gleichen Ablauf. Keine Ausnahmen. Auch nicht bei Dringlichkeit.

Technische Schutzmaßnahmen

Deepfake-Erkennungssoftware: Tools wie Vaarhaft, TruthScan oder Forensik-Plattformen können manipulierte Bilder, Videos und Audiodateien erkennen. Sie analysieren die unsichtbaren Spuren, die KI-Modelle hinterlassen.

Multi-Faktor-Authentifizierung (MFA): Bei Zugriffen auf sensible Systeme reicht ein Passwort nicht aus. Es braucht einen zweiten Faktor: SMS-Code, Authentifizierungs-App, biometrische Daten.

E-Mail-Sicherheit: Anti-Phishing-Tools, die Links und Anhänge automatisch prüfen. Warnung bei verdächtigen Absendern oder ungewöhnlichen Formulierungen.

Endpoint-Security: Firewalls, Antiviren-Software, regelmäßige Updates. Klingt banal, ist aber Grundvoraussetzung.

Mitarbeitende schulen

Die beste Firewall sitzt zwischen den Ohren. Regelmäßige Schulungen sind Pflicht:

  • Was sind Deepfakes? Wie funktionieren sie?
  • Welche Betrugsmaschen gibt es aktuell?
  • Wie erkennt man Deepfakes?
  • Was tun im Verdachtsfall?

Außerdem hilfreich sind:

  • Praxisübungen: Simulierte Phishing-Mails, Test-Anrufe mit gefälschten Stimmen. Wer einmal reingefallen ist, fällt nicht nochmal rein.
  • Fehlerkultur etablieren: Niemand soll Angst haben, Verdacht zu melden. Lieber einmal zu viel nachfragen als einmal zu wenig.

Öffentliche Präsenz überdenken

Je mehr Material von einer Person öffentlich verfügbar ist, desto leichter lässt sich ein Deepfake erstellen. Das heißt nicht, dass Maklerinnen und Makler offline gehen sollen – aber sie sollten sich bewusst sein:

  • Jedes YouTube-Video ist potenzielles Deepfake-Material
  • Jeder Podcast ist eine Stimmprobe
  • Jedes LinkedIn-Profil zeigt, wer mit wem arbeitet

Lösung: Nicht aufhören, sondern smarter werden. Wasserzeichen in Videos, Hinweise auf Deepfake-Risiken in Disclaimern, bewusster Umgang mit persönlichen Informationen.

Notfallplan erstellen

Was, wenn es passiert? Wenn Geld überwiesen wurde, Daten abgegriffen wurden oder ein gefälschtes Video im Umlauf ist?

Sofortmaßnahmen:

  • Bank kontaktieren, Überweisung stoppen (wenn möglich)
  • Passwörter ändern, Zugänge sperren
  • IT-Sicherheitsteam informieren
  • Polizei einschalten, Anzeige erstatten

Kommunikation:

  • Kundinnen und Kunden informieren (wenn nötig beziehungsweise betroffen)
  • Transparenz zeigen, aber keine Panik verbreiten
  • Gegenmaßnahmen kommunizieren

Nachbereitung:

  • Wie konnte es passieren?
  • Welche Prozesse müssen angepasst werden?
  • Was lernen wir daraus?

Der Wettbewerbsvorteil

Jetzt kommt der Clou: Wer sich mit Deepfakes, CEO-Fraud und Betrugserkennung auskennt, hat einen massiven Wettbewerbsvorteil.

Warum?

  1. Kundenbindung: Wer seine Kundinnen und Kunden proaktiv vor Risiken schützt, wird als kompetente Vertrauensperson wahrgenommen.
  2. Neukundengewinnung: Unternehmen suchen händeringend nach Sicherheitsberatung. Maklerinnen und Makler, die hier Expertise bieten, öffnen Türen.
  3. Cross-Selling: Cyber-Versicherungen, Vertrauensschadenversicherungen, D&O-Policen: Das Thema Deepfakes öffnet neue Produktfelder.
  4. Positionierung: In einer Branche, in der viele das Gleiche anbieten, sind Spezialisierung und Expertise echte Differenzierungsmerkmale.

Konkret:

  • Webinare für Kundinnen und Kunden: „Deepfake-Betrug: So schützen Sie Ihr Unternehmen“
  • Checklisten und Leitfäden als Download auf der Website
  • Beratungspakete für Cyber-Sicherheit und Betrugsabwehr
  • LinkedIn-Content zum Thema Deepfakes, CEO-Fraud, Schutzmaßnahmen
  • Kooperationen mit IT-Sicherheitsunternehmen

Vertrauen ist gut, Verifikation ist besser

Deepfakes sind keine Science-Fiction. Sie sind Realität. Und sie werden nicht verschwinden. Im Gegenteil: Sie werden besser, zugänglicher, gefährlicher.

Die gute Nachricht: Egal wie fortgeschritten die Technologie ist: Sie scheitert an menschlicher Expertise, Erfahrung und Intuition. Denn am Ende des Tages ist es nicht die KI, die über Betrug oder Sicherheit entscheidet. Es sind Menschen.

Titelbild: insta_photos/adobestock.com

Sie haben einen Fehler gefunden? Unsere Redaktion freut sich über einen Hinweis.

Auch interessant

Mein Vereinsheim

Termine

Keine Veranstaltungen gefunden.

Über uns

Joachim Rahn
Stefan Eisenmann
Alexander Böhm
Björn Maaß
Olga Simes
Waldemar Bliss
Klaudia Skoro
Ulrich Schubert
Peter Teichmann
Michael Krüger
Hendrik Mohr
Heiko Senff
Ali Gürcali

Kontakt

Münchener Verein Versicherungsgruppe

Pettenkoferstrasse 19
80336 München

+49 89 5152 2340
info@muenchener-verein.de

Don't Miss

Jungmakler Award 2025