Kategorie: Künstliche Intelligenz

Deepfake-as-a-Service, Mann mit Papiertüte auf dem Kopf

Deepfake-as-a-Service

Das Jahr 2024 markierte einen Wendepunkt bei Cyberangriffen. Diese wurden durchFortschritte in der künstlichen Intelligenz immer raffinierter. Heute können selbstunerfahrene Akteure diese Technologien nutzen, um groß angelegte Angriffedurchzuführen. Das liegt unter anderem daran, dass der Zugang zu Deepfake-as-a-Service-Plattformen, die Dienste wie KI-Gesichts-Austausch, Stimm-Imitation,Sprachsynthese und KI-Animation anbieten, nun für die breite Öffentlichkeit zugänglichsind und keine großen Investitionen mehr voraussetzen.

Erschreckend glaubwürdige Fälschungen

Ein persönliches Gespräch oder ein Videoanruf? Früher ein sicherer Beweis für Echtheit –heute durch KI-Technologie erschreckend leicht zu fälschen. Künstliche Intelligenzverändert das Spiel: Deepfakes, synthetische Stimmen und täuschend echte Bots machenes Cyberkriminellen erschreckend leicht, Vertrauen zu erschleichen.

Dank moderner Sprachsynthese und Bildgenerierung entstehen in Sekundenschnellerealitätsnahe Fälschungen. Stimmen klingen vertraut, Gesichtsausdrücke wirkenauthentisch – und das reicht oft aus, um Sicherheitsmechanismen auszutricksen oderMenschen zu manipulieren.

Noch beunruhigender: KI-gestützte Bots führen parallel Hunderte Gespräche, angepasstan Sprache, Tonfall und Reaktionen des jeweiligen Opfers. Sie agieren fehlerfrei, rund umdie Uhr – ohne Pausen, ohne Unsicherheiten. Ein menschlicher Gegenpart? Nicht mehrerforderlich.

Beispiele:

  • 2023: Ein Unternehmen in Hongkong verliert 25 Millionen US-Dollar. Der Grund?Ein Mitarbeiter wurde durch einen Deepfake getäuscht und glaubte, Anweisungenvon seinem Vorgesetzten zu erhalten … während er in Wirklichkeit mit einer KI-generierten Imitation sprach.
  • Im Jahr 2024 meldeten mehrere Banken und Kryptowährungsplattformen Angriffe,bei denen Hacker mithilfe von Echtzeitsimulationen von Gesichtern und Stimmenbetrügerische Bankkonten eröffneten und Millionen von Dollar wuschen.

Ohne technische Kenntnisse kann jeder auf hochentwickelte Toolszugreifen:

  • Face-Swapping (Echtzeit-Gesichtsaustausch während eines Videoanrufs,beispielsweise über Zoom oder Skype)
  • Ultrarealistische Sprachsynthese, die eine Stimme mit verblüffender Genauigkeitimitieren kann und Telefonbetrug deutlich vereinfacht.
  • Automatisierte Chatbots, um wochenlang glaubwürdige Gespräche zu führen

Empfehlung für Verantwortliche

Bestimmte Verhaltensanomalien können identifiziert werden, wie z. B.:

  • Ungewöhnliche Verzögerungen bei Videoanrufen, die auf eine Echtzeit-Deepfake-Generierung hindeuten können
  • Subtile Stimminkonsistenzen, wie z. B. künstliche Betonung oder leicht verzögerteAntworten
  • Übermäßiger Einsatz dringender Kommunikationstaktiken, einschließlichDruckphrasen wie „Diese Übertragung muss sofort abgeschlossen werden!“

 

Mitarbeiter und Nutzer müssen geschult werden, um diese Anomalien zu erkennen. Daskann zum Beispiel erfolgen durch:

  • Deepfake-Simulationen: Inszenierung gefälschter Videos von Führungskräften, diedringende Überweisungen anfordern, anschließende Analyse derMitarbeiterreaktionen und daraus lernende Erkenntnisse.
  • Voice-Phishing-Übungen: Testen der Team-Aufmerksamkeit mit KI-generiertenbetrügerischen Anrufen.
  • Live-Demonstrationen von Face-Swapping, um einen psychologischenSchockeffekt und nachhaltiges Bewusstsein zu erzeugen.

 

Den vollständigen Bericht von TEHTRIS mit weiteren Praxisbeispielen kann in englischerSprache unter folgendem Link heruntergeladen werden: „
Threat Intelligence“-Bericht.

 

Rechtsanwalt Robert Harzewski

Die neue KI-Verordnung: Was Unternehmen jetzt wissen müssen

Am 1. August 2024 trat in der Europäischen Union das weltweit erste umfassende Gesetz zur Regulierung Künstlicher Intelligenz (KI) in Kraft. Die Verordnung (EU) 2024/1689, bekannt als KI-Verordnung, zielt darauf ab, einen einheitlichen Rechtsrahmen für die Entwicklung und Nutzung von KI-Systemen zu schaffen. Sie legt dabei besonderes Augenmerk auf das von diesen Systemen ausgehende Risiko und richtet sich hauptsächlich an Anbieter und Betreiber solcher Technologien.

Zielsetzung der KI-Verordnung

Die KI-Verordnung ist ein zentraler Bestandteil der Europäischen Digitalstrategie und dient als erster harmonisierter Rechtsrahmen für das Inverkehrbringen, die Inbetriebnahme und Nutzung von KI-Systemen innerhalb der EU. Ähnlich wie die Datenschutz-Grundverordnung (DSGVO) hat sie unmittelbare Geltung in allen Mitgliedstaaten. Allerdings obliegt es den einzelnen Staaten, bestimmte Vorschriften, insbesondere hinsichtlich Durchsetzung und Sanktionen, weiter auszugestalten.

Im Gegensatz zur DSGVO, die personenbezogene Daten schützt, handelt es sich bei der KI-Verordnung um produktbezogenes Recht. Sie enthält Bestimmungen zur Marktüberwachung und adressiert verschiedene Akteure entlang der KI-Wertschöpfungskette, darunter Anbieter, Betreiber, Bevollmächtigte, Hersteller, Importeure und Händler von KI-Systemen.

Risikobasierter Ansatz der Regulierung

Die Verordnung verfolgt einen risikobasierten Ansatz: Je höher das potenzielle Risiko eines KI-Systems für Gesellschaft oder Individuen, desto strenger die regulatorischen Anforderungen. Hauptsächlich sind Anbieter und Betreiber von KI-Systemen verpflichtet, spezifische Vorgaben einzuhalten, während Endnutzer in der Regel keine direkten Pflichten auferlegt bekommen.

Kategorisierung von KI-Systemen nach Risikograd

Die KI-Verordnung definiert ein KI-System als ein maschinengestütztes System, das autonom arbeitet und aus Eingaben Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen ableitet, die physische oder virtuelle Umgebungen beeinflussen können. Ein wesentliches Merkmal ist die Fähigkeit des Systems, aus Daten zu lernen und eigenständig Schlussfolgerungen zu ziehen.

Die Regulierungstiefe richtet sich nach dem Risikograd des jeweiligen KI-Systems:

Verbotene KI-Systeme:

Systeme mit unannehmbarem Risiko sind untersagt. Dazu zählen beispielsweise Anwendungen, die Menschen basierend auf Verhalten, sozioökonomischem Status oder persönlichen Merkmalen bewerten (sogenanntes Social Scoring). Auch die biometrische Echtzeit-Fernidentifizierung, wie Gesichtserkennung im Strafverfolgungskontext, ist grundsätzlich verboten, wobei es bestimmte Ausnahmen gibt.

Hochrisiko-KI-Systeme:

Diese Systeme stellen ein hohes Risiko für Gesundheit, Sicherheit oder Grundrechte dar. Die Verordnung unterteilt sie in zwei Kategorien:

    1. KI-Systeme, die Teil eines Produkts oder Sicherheitsbauteils sind, wie etwa Spielzeug oder autonome Roboter.
    2. KI-Systeme in spezifischen Bereichen, die von der EU-Kommission als hochriskant eingestuft wurden.

Für Hochrisiko-KI-Systeme gelten strenge Anforderungen, einschließlich umfassender Konformitätsbewertungen, um ihre Sicherheit und Zuverlässigkeit zu gewährleisten.

Ausblick

Mit der Einführung der KI-Verordnung setzt die EU einen bedeutenden Schritt in Richtung einer sicheren und verantwortungsvollen Nutzung von Künstlicher Intelligenz. Unternehmen, die KI-Technologien entwickeln oder einsetzen, sollten sich frühzeitig mit den neuen Anforderungen vertraut machen, um Compliance sicherzustellen und potenzielle Risiken zu minimieren.

 

Rechtsanwalt Robert Harzewski