KI-Agenten sind auf dem Vormarsch. Sie übernehmen eigenständig Aufgaben, treffen Entscheidungen und kommunizieren automatisiert mit Systemen – häufig ohne menschliche Kontrolle. Diese neue Form künstlicher Intelligenz verspricht Effizienz und Automatisierung, bringt jedoch erhebliche datenschutzrechtliche Herausforderungen mit sich.
Was sind KI-Agenten – und wie unterscheiden sie sich von KI-Assistenten?
Während KI-Assistenten wie ChatGPT, Google Assistant oder Siri auf konkrete Eingaben reagieren und Informationen bereitstellen, agieren KI-Agenten weitgehend autonom. Sie verfolgen vordefinierte Ziele, lernen aus Daten und sind in der Lage, Prozesse anzustoßen oder Entscheidungen zu treffen – ohne dass ein Mensch eingreifen muss.
Im Unternehmenskontext bedeutet das: Ein KI-Agent kann beispielsweise Rückerstattungen auslösen, Vertragsänderungen durchführen oder interne Prozesse automatisieren. Diese Handlungsfähigkeit bringt nicht nur Vorteile, sondern auch neue Angriffsflächen mit sich.
Typische Einsatzgebiete von KI-Agenten
Die Bandbreite möglicher Anwendungen ist groß:
- Kundensupport: Automatisierte Bearbeitung standardisierter Anfragen, Vertragsverlängerungen oder Rückbuchungen.
- Vertrieb & Marketing: Qualifizierung von Leads, Generierung individueller Angebote, automatisierter Versand von Newslettern.
- Buchhaltung & Finanzen: Prüfung von Rechnungen, Abgleich von Zahlungseingängen, Identifikation von Unstimmigkeiten.
- Produktentwicklung: Auswertung von Nutzerinteraktionen, Durchführung von A/B-Tests, Erstellung von Designvorschlägen.
Je tiefer die Integration solcher Agenten, desto größer wird die Datenmenge, auf die sie zugreifen – und damit auch das Datenschutzrisiko.
Kritische Datenschutzrisiken durch KI-Agenten
1. Autonomer Datenzugriff mit weitreichenden Befugnissen
KI-Agenten benötigen in vielen Fällen umfassende Zugriffsrechte auf personenbezogene und geschäftskritische Daten – vom Browserverlauf über Kalendereinträge bis hin zu Kreditkarteninformationen und Nachrichtenverläufen. Für eine nahtlose Funktion müssen sie systemübergreifend arbeiten, was oft mit sogenannten Root Permissions einhergeht – also Zugriffsrechten auf tiefster Betriebssystemebene.
Die Folge: Klassische Systembarrieren, die Anwendungen voneinander trennen und Daten isolieren, werden durchbrochen. Dadurch entsteht eine neue Risikodimension, bei der nicht mehr nur einzelne Apps betroffen sind, sondern ganze Systemarchitekturen.
2. Prompt Injection: Einfallstor für Manipulation
Ein besonders heikles Angriffsszenario ist die sogenannte Prompt Injection. Hierbei wird der KI-Agent durch gezielte Eingaben manipuliert. Beispiel: Ein Angreifer gibt in ein Eingabefeld den Befehl ein, alle gespeicherten Passwörter anzuzeigen – getarnt als legitime Nutzeranfrage. Ist der Agent nicht ausreichend geschützt, kann er auf solche Anweisungen reagieren und vertrauliche Informationen preisgeben. (Lesen Sie dazu auch den Newsradar vom 29.09.2025).
3. Unverschlüsselte Datenverarbeitung in der Cloud
Da KI-Modelle in der Regel auf leistungsstarken Cloud-Servern laufen, werden viele Daten zur Verarbeitung aus lokalen Systemen ausgelagert. Das bedeutet in der Praxis häufig: Temporäre Entschlüsselung sensibler Informationen, um diese überhaupt auswerten zu können. Auch bei verschlüsselten Anwendungen entsteht dadurch eine potenzielle Schwachstelle.
Die Präsidentin der gemeinnützigen Signal Foundation, Meredith Whittaker, warnt eindringlich vor dieser Entwicklung. Sie sieht in KI-Agenten eine grundlegende Bedrohung für Datenschutz und digitale Sicherheit – insbesondere, weil diese Systeme Zugriffsrechte benötigen, die klassische Schutzmechanismen aushebeln.
4. Der Datenhunger moderner KI-Modelle
Ein weiterer Aspekt ist der strukturelle Datenbedarf moderner KI-Systeme. Das zugrunde liegende Paradigma lautet: „Big Data, bigger is better.“ Doch dieser Ansatz steht im klaren Widerspruch zum Prinzip der Datensparsamkeit, das in der DSGVO (oder im DSG-EKD) verankert ist.
Empfehlungen des BSI: Zero Trust als Leitprinzip
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) unterstützt die Warnungen mit konkreten Handlungsempfehlungen. In seinen „Zero Trust Design Principles for LLM-based Systems“ legt das BSI nahe:
- Prinzip der minimalen Berechtigung: KI-Agenten erhalten ausschließlich Zugriff auf Daten und Funktionen, die sie für ihre Aufgabe zwingend benötigen.
- Laufende Authentifizierung und Autorisierung: Die Identität und Berechtigung des Agenten muss fortlaufend überprüft werden.
- Isolation durch Sandboxing: Prozesse sollten in abgeschotteten Umgebungen laufen, um eine unkontrollierte Ausbreitung im System zu verhindern.
- Privacy by Design: Datenschutzanforderungen sind integraler Bestandteil der Systemarchitektur – von Anfang an.
Diese Prinzipien bilden die Grundlage für einen sicheren und DSGVO (oder DSG-EKD)-konformen Einsatz von KI-Technologien im Unternehmen.
Fazit: Datenschutz ist kein Nebenprodukt – sondern Voraussetzung
Der Einsatz von KI-Agenten eröffnet neue Möglichkeiten – gleichzeitig entstehen neue Verantwortlichkeiten. Unternehmen stehen vor der Aufgabe, die Chancen intelligenter Automatisierung mit den Anforderungen an Datenschutz, Compliance und IT-Sicherheit in Einklang zu bringen.
Empfehlenswerte Schritte:
- Technologiebewertung: Bestehende KI-Anwendungen regelmäßig auf Sicherheits- und Datenschutzrisiken prüfen.
- Zugriffsmanagement: Rollen und Rechte klar definieren, übermäßige Berechtigungen vermeiden.
- Technische Schutzmaßnahmen: Zero-Trust-Architekturen umsetzen, isolierte Datenverarbeitung ermöglichen.
- Dokumentation und Transparenz: Datenschutzmaßnahmen nachvollziehbar dokumentieren und kontinuierlich evaluieren.
Nur mit einem ganzheitlichen Sicherheitskonzept lassen sich die Vorteile von KI-Agenten nutzen, ohne den Datenschutz zu gefährden.
Zum Nachhören bei Deutschlandradio Kultur: Meredith Whittaker warnt vor dem Einsatz von Künstlicher Intelligenz. Denn KI-Agenten sind nicht immer nützlich. Die Chefin des Messengerdienstes Signal fürchtet, die Helfer könnten Datensicherheit und Privatsphäre gefährden. Der Beitrag beginnt ab der 12. Minute. Zum Beitrag: Link.
Verwandte Beiträge
- Die neue KI-Verordnung: Was Unternehmen jetzt wissen müssen
Am 1. August 2024 trat in der Europäischen Union das weltweit erste umfassende Gesetz zur…
- Deepfake-as-a-Service
Das Jahr 2024 markierte einen Wendepunkt bei Cyberangriffen. Diese wurden durchFortschritte in der künstlichen Intelligenz…




