DSGVO-konforme KI-Nutzung in Unternehmen: Wie Pseudonymisierung das Datenschutz-Dilemma löst
Zwischen Innovationsdruck und Rechtssicherheit: Warum technische Schutzmaßnahmen entscheiden, ob KI-Projekte scheitern oder skalieren
Ostfildern, 05.01.2026 (PresseBox) - Die Diskussion über Künstliche Intelligenz in Unternehmen folgt einem vorhersehbaren Muster. Erst kommt die Begeisterung über die Möglichkeiten, dann die ernüchternde Frage des Datenschutzbeauftragten: Wohin fließen eigentlich unsere Daten? Diese Frage ist nicht übertrieben vorsichtig. Sie ist existenziell.
Ein Unternehmen, das personenbezogene Daten ungeschützt an externe KI-Dienste überträgt, riskiert nicht nur Bußgelder. Es riskiert das Vertrauen seiner Kunden, die Integrität seiner Geschäftsbeziehungen und im Ernstfall seine Existenz. Die DSGVO-Bußgelder der vergangenen Jahre, signalisieren unmissverständlich: Aufsichtsbehörden verstehen bei Datenschutzverstößen keinen Spaß.
Gleichzeitig ist der Verzicht auf KI keine Option. Wettbewerber, die ihre Dokumentenverarbeitung automatisieren, ihre Vertragsanalysen beschleunigen und ihre Kundenkorrespondenz optimieren, ziehen davon. Das Dilemma scheint unlösbar: KI nutzen und Datenschutz riskieren oder Datenschutz wahren und Wettbewerbsfähigkeit einbüßen. Es gibt einen Ausweg. Er liegt nicht im Verzicht, sondern in der Architektur.
Das eigentliche Problem: Kontrolle über den Datenfluss
Die Herausforderung ist schnell benannt. KI-Modelle bieten enormes Potenzial, aber personenbezogene Daten dürfen nicht ungeschützt an externe Dienste übertragen werden. Auch wenn Anbieter versichern, dass Daten nicht zum Training verwendet werden, bleibt ein Restrisiko. Daten, die das Unternehmen verlassen, unterliegen nicht mehr der vollständigen Kontrolle des Unternehmens.
Die Browser-Nutzung von KI-Tools verschärft dieses Problem. Mitarbeitende laden Dokumente hoch, kopieren Vertragstexte in Chatfenster oder lassen E-Mails zusammenfassen. Ohne böse Absicht, aber auch ohne Verständnis für die Konsequenzen. Der Fall eines Tech-Unternehmens, bei dem vertraulicher Quellcode in ChatGPT landete und in das Training des Modells einfloss, ist nur ein Beispiel einer alltäglichen Praxis.
Für Unternehmen, die KI produktiv einsetzen wollen, stellt sich daher nicht die Frage, ob sie Schutzmaßnahmen brauchen. Die Frage ist, welche Schutzmaßnahmen praktikabel sind, ohne die Vorteile der KI zu neutralisieren.
Die technische Lösung: Pseudonymisierung als Schutzschicht
Das Prinzip ist elegant in seiner Einfachheit: Bevor Daten an eine KI gesendet werden, werden personenbezogene Informationen durch Platzhalter ersetzt. Nach der Verarbeitung durch die KI werden die Platzhalter wieder durch die Originaldaten ersetzt. Das Ergebnis: Die KI arbeitet mit dem vollständigen Kontext, kennt aber keine echten personenbezogenen Daten.
Ein Beispiel verdeutlicht den Mechanismus:
Original-Text:
„Max Mustermann hat am 15.12.2024 eine Anfrage zu seinem Vertrag mit der Nummer 123456 gestellt. Seine E-Mail-Adresse lautet [email protected] und er ist telefonisch unter 0123-456789 erreichbar."
Nach Pseudonymisierung:
„[PERSON_1] hat am [DATE_1] eine Anfrage zu seinem Vertrag mit der Nummer [CONTRACT_1] gestellt. Seine E-Mail-Adresse lautet [EMAIL_1] und er ist telefonisch unter [PHONE_1] erreichbar."
Dieser pseudonymisierte Text wird an das KI-Modell übermittelt. Die KI kann den Kontext verstehen und eine sinnvolle Antwort generieren, ohne die echten personenbezogenen Daten zu kennen. Namen, Adressen, Sozialversicherungsnummern oder Vertragsnummern, eben alles, was eine Person identifizieren könnte, bleibt im Unternehmen.
Die Re-Identifizierung schließt den Kreis. Wenn die KI antwortet, ersetzt das System die Platzhalter automatisch durch die Originaldaten. Der Nutzer sieht das finale Ergebnis mit allen korrekten Informationen. Die Komplexität der Pseudonymisierung bleibt im Hintergrund.
ALBERT | AI: Eine Filter-Architektur für den Unternehmenseinsatz
Das Dokumentenmanagementsystem agorum core bietet mit ALBERT | AI eine Plattform, die als zentrale Schnittstelle zwischen Unternehmensdaten und verschiedenen KI-Modellen fungiert. Das Besondere liegt in der Filter-Architektur: Bevor Daten an ein KI-Modell gesendet werden, können sie durch verschiedene Schutzfilter geleitet werden.
Der Workflow folgt einem klaren Ablauf:
- Alle KI-Anfragen laufen über ALBERT | AI
- Konfigurierbare Filter prüfen und bearbeiten die Daten vor der Weitergabe
- Personenbezogene Informationen werden durch Platzhalter ersetzt
- Die KI arbeitet nur mit den gefilterten Daten
- ALBERT | AI re-identifiziert die Antwort für den Endnutzer
Die Filter-Optionen im Detail
ALBERT | AI wurde von Grund auf als flexible Plattform konzipiert, die verschiedene Sicherheits- und Datenschutzfilter integrieren kann. Diese Filter arbeiten als Zwischenschicht zwischen den Unternehmensdaten und den KI-Modellen.
MATVIS-Filter: Ein Partnersystem, das Daten aus einem Datenstrom in Platzhalter wandelt. Das System läuft beim Kunden, die Daten verlassen nicht das Haus. MATVIS kann zusätzlich mit unternehmensspezifischen Daten angereichert werden. Beispiel: Das Unternehmen trainiert das MATVIS-Modell mit seinen Kundendaten wie Namen, Adressen, Sozialversicherungsnummern oder Patentnummern, die dann automatisch ersetzt werden.
String-Filter: Hier können Zeichenketten vorgegeben werden, die ersetzt werden sollen. Auch reguläre Ausdrücke (RegEx) sind möglich, die Muster suchen und durch Platzhalter ersetzen.
CSV-Filter: Eine CSV-Datei mit Daten, die durch Platzhalter ersetzt werden sollen. Praktisch für die Integration bestehender Datenlisten.
Preset-Filter: Ruft eine KI auf, die personenbezogene Daten mit Platzhaltern belegt. Diese KI sollte on-premises laufen, sodass die Daten das Unternehmen nicht verlassen.
Der modulare Aufbau erlaubt es, Filter je nach Bedarf zu aktivieren oder zu deaktivieren. Mehrere Filter können hintereinandergeschaltet werden. Jeder Filter kann individuell konfiguriert werden. Alle Filter-Aktionen werden protokolliert.
Protokollierung als Compliance-Fundament
Ein wesentliches Merkmal von ALBERT | AI ist die umfassende Protokollierung aller KI-Interaktionen. Dies ist besonders wichtig für Compliance und Auditing.
Was wird protokolliert:
- Zeitstempel jeder Anfrage
- Verwendete Filter und deren Konfiguration
- Art und Anzahl der pseudonymisierten Datenfelder
- Verwendetes KI-Modell und Parameter
- Verarbeitungsdauer
- Vollständige Anfragen und Antworten (immer beide Paare: die an die KI gestellte Anfrage in pseudonymisierter Form sowie die ursprüngliche Anfrage)
Die Protokollierung ist konfigurierbar. Das Unternehmen entscheidet, welche Informationen gespeichert und wie lange sie aufbewahrt werden.
Die Grenzen der Technik: Was in Ihrer Verantwortung bleibt
Bei aller technischer Eleganz ist es wichtig zu verstehen, was ALBERT | AI und seine Filter leisten können und was nicht.
Was ALBERT | AI mit Filtern leistet:
- Technische Pseudonymisierung von Daten
- Sichere Übertragung an KI-Modelle
- Automatische Re-Identifizierung
- Protokollierung aller Vorgänge
- Flexible Integration verschiedener Filter
- Rechtsgrundlage: Klärung, ob und wie KI eingesetzt werden darf
- Zweckbindung: Definition erlaubter Verwendungszwecke
- Betroffenenrechte: Prozesse für Auskunft, Löschung, Berichtigung
- Verarbeitungsverzeichnisse: Dokumentation gemäß DSGVO
- Datenschutz-Folgenabschätzung: Bei Bedarf durchführen
- Organisatorische Maßnahmen: Richtlinien, Schulungen, Prozesse
Die Plattform ist lokal in agorum core integriert und konsequent an die bestehenden Nutzerrechte und Datenschutzvorgaben des Unternehmens gebunden. Sie überträgt ausschließlich ausgewählte, für die jeweilige Aufgabe benötigte Inhalte über eine Schnittstelle an ein vom Unternehmen gewähltes KI-System. ALBERT | AI vergibt keine eigenen Rechte und speichert keine Daten außerhalb von agorum core. Die Abstimmung mit dem Datenschutzbeauftragten ist unerlässlich.
Der wirtschaftliche Kontext: Datenschutz als Enabler
Die Pseudonymisierung löst nicht nur ein rechtliches Problem. Sie löst ein wirtschaftliches Problem. Ohne technische Schutzmaßnahmen bleiben Unternehmen in einem unbefriedigenden Zustand gefangen: Entweder sie nutzen KI unter Inkaufnahme von Compliance-Risiken, oder sie verzichten auf KI unter Inkaufnahme von Effizienzverlusten. Beides sind keine nachhaltigen Strategien.
Mit einer funktionierenden Pseudonymisierung ändert sich die Rechnung fundamental. Die KI kann auf die vollständige Datenbasis, wie Verträge, Korrespondenz, Rechnungen oder Kundendaten zugreifen, ohne dass personenbezogene Informationen das Unternehmen verlassen. Die Analyseergebnisse sind präzise, weil der Kontext vollständig ist. Die Risiken sind kontrolliert, weil sensible Daten geschützt bleiben.
Der eigentliche Wert liegt in der Skalierbarkeit. Ein Unternehmen, das seine KI-Nutzung nicht auf harmlose Anwendungsfälle beschränken muss, kann die Technologie dort einsetzen, wo sie den größten Hebel hat: in dokumentenintensiven Prozessen mit hohem Personenbezug. Genau dort, wo bisher die größte Zurückhaltung herrschte.
Schlussbetrachtung: Kontrolle als Voraussetzung für Innovation
Die DSGVO-konforme Nutzung von KI ist kein Widerspruch in sich. Sie erfordert allerdings eine Architektur, die Datenschutz nicht als nachträgliche Einschränkung behandelt, sondern als integralen Bestandteil des Systems.
Die Filter-Architektur von ALBERT | AI bietet einen Ansatz, der diese Integration ermöglicht. Pseudonymisierung vor der Übertragung, Re-Identifizierung nach der Verarbeitung, vollständige Protokollierung aller Vorgänge. Die Daten bleiben unter Kontrolle, während die KI ihre Arbeit tut.
Wichtig bleibt die Unterscheidung zwischen technischen Möglichkeiten und rechtlicher Verantwortung. ALBERT | AI ist ein Werkzeug, das hilft, Datenschutz technisch umzusetzen. Die Verantwortung für die rechtskonforme Nutzung liegt beim Unternehmen. Mit der richtigen Konfiguration und dem Bewusstsein für diese Verantwortung ermöglicht die Plattform jedoch einen deutlich sichereren Umgang mit sensiblen Daten bei der KI-Nutzung.
Die Entscheidung, ob und wie diese Möglichkeiten genutzt werden, liegt bei jedem Unternehmen selbst. Was feststeht: Die technischen Voraussetzungen für DSGVO-konforme KI-Nutzung existieren. Die Frage ist nicht mehr, ob es geht. Die Frage ist, wer es umsetzt.


