Das Jahr 2024 markierte einen Wendepunkt bei Cyberangriffen. Diese wurden durchFortschritte in der künstlichen Intelligenz immer raffinierter. Heute können selbstunerfahrene Akteure diese Technologien nutzen, um groß angelegte Angriffedurchzuführen. Das liegt unter anderem daran, dass der Zugang zu Deepfake-as-a-Service-Plattformen, die Dienste wie KI-Gesichts-Austausch, Stimm-Imitation,Sprachsynthese und KI-Animation anbieten, nun für die breite Öffentlichkeit zugänglichsind und keine großen Investitionen mehr voraussetzen.
Erschreckend glaubwürdige Fälschungen
Ein persönliches Gespräch oder ein Videoanruf? Früher ein sicherer Beweis für Echtheit –heute durch KI-Technologie erschreckend leicht zu fälschen. Künstliche Intelligenzverändert das Spiel: Deepfakes, synthetische Stimmen und täuschend echte Bots machenes Cyberkriminellen erschreckend leicht, Vertrauen zu erschleichen.
Dank moderner Sprachsynthese und Bildgenerierung entstehen in Sekundenschnellerealitätsnahe Fälschungen. Stimmen klingen vertraut, Gesichtsausdrücke wirkenauthentisch – und das reicht oft aus, um Sicherheitsmechanismen auszutricksen oderMenschen zu manipulieren.
Noch beunruhigender: KI-gestützte Bots führen parallel Hunderte Gespräche, angepasstan Sprache, Tonfall und Reaktionen des jeweiligen Opfers. Sie agieren fehlerfrei, rund umdie Uhr – ohne Pausen, ohne Unsicherheiten. Ein menschlicher Gegenpart? Nicht mehrerforderlich.
Beispiele:
- 2023: Ein Unternehmen in Hongkong verliert 25 Millionen US-Dollar. Der Grund?Ein Mitarbeiter wurde durch einen Deepfake getäuscht und glaubte, Anweisungenvon seinem Vorgesetzten zu erhalten … während er in Wirklichkeit mit einer KI-generierten Imitation sprach.
- Im Jahr 2024 meldeten mehrere Banken und Kryptowährungsplattformen Angriffe,bei denen Hacker mithilfe von Echtzeitsimulationen von Gesichtern und Stimmenbetrügerische Bankkonten eröffneten und Millionen von Dollar wuschen.
Ohne technische Kenntnisse kann jeder auf hochentwickelte Toolszugreifen:
- Face-Swapping (Echtzeit-Gesichtsaustausch während eines Videoanrufs,beispielsweise über Zoom oder Skype)
- Ultrarealistische Sprachsynthese, die eine Stimme mit verblüffender Genauigkeitimitieren kann und Telefonbetrug deutlich vereinfacht.
- Automatisierte Chatbots, um wochenlang glaubwürdige Gespräche zu führen
Empfehlung für Verantwortliche
Bestimmte Verhaltensanomalien können identifiziert werden, wie z. B.:
- Ungewöhnliche Verzögerungen bei Videoanrufen, die auf eine Echtzeit-Deepfake-Generierung hindeuten können
- Subtile Stimminkonsistenzen, wie z. B. künstliche Betonung oder leicht verzögerteAntworten
- Übermäßiger Einsatz dringender Kommunikationstaktiken, einschließlichDruckphrasen wie „Diese Übertragung muss sofort abgeschlossen werden!“
Mitarbeiter und Nutzer müssen geschult werden, um diese Anomalien zu erkennen. Daskann zum Beispiel erfolgen durch:
- Deepfake-Simulationen: Inszenierung gefälschter Videos von Führungskräften, diedringende Überweisungen anfordern, anschließende Analyse derMitarbeiterreaktionen und daraus lernende Erkenntnisse.
- Voice-Phishing-Übungen: Testen der Team-Aufmerksamkeit mit KI-generiertenbetrügerischen Anrufen.
- Live-Demonstrationen von Face-Swapping, um einen psychologischenSchockeffekt und nachhaltiges Bewusstsein zu erzeugen.
Den vollständigen Bericht von TEHTRIS mit weiteren Praxisbeispielen kann in englischerSprache unter folgendem Link heruntergeladen werden: „
Threat Intelligence“-Bericht.