
DSGVO-konforme KI: LLM-Features für den europäischen Markt bauen
Jedes Mal, wenn ein Nutzer eine Nachricht in deinen KI-Chatbot tippt, verarbeitest du personenbezogene Daten. Die Nachricht könnte einen Namen, eine E-Mail, ein Gesundheitsanliegen oder eine Beschwerde enthalten. Unter der DSGVO sind das personenbezogene Daten — und du brauchst eine Rechtsgrundlage für die Verarbeitung.
Die meisten Engineering-Teams behandeln Compliance als Post-Launch-Problem. „Kümmern wir uns später drum." Das funktioniert, bis eine Datenschutzbehörde einen Fragebogen schickt oder ein Nutzer sein Recht auf Löschung ausübt und du feststellst, dass du seine Daten nicht wirklich aus deiner Vektordatenbank löschen kannst.
So baust du LLM-Features, die von Tag eins compliant sind.
Die zwei Gesetze, die du kennen musst
DSGVO (seit 2018)
Kernanforderungen für KI:
- Rechtsgrundlage für die Verarbeitung (Einwilligung, berechtigtes Interesse oder Vertragserfüllung)
- Datenminimierung — schick nicht mehr Daten zum LLM als nötig
- Recht auf Löschung — Nutzer können die Löschung ihrer Daten verlangen
- Auskunftsrecht — Nutzer können fragen, warum eine automatisierte Entscheidung getroffen wurde
- Auftragsverarbeitungsverträge mit allen Sub-Prozessoren (einschließlich deines LLM-Anbieters)
EU AI Act (High-Risk-Deadline: August 2026)
Der AI Act fügt Anforderungen auf die DSGVO drauf:
- Risikoklassifizierung deines KI-Systems
- Transparenz — Nutzer müssen wissen, dass sie mit KI interagieren
- Menschliche Aufsicht für Hochrisiko-Entscheidungen
- Bias-Testing und Monitoring
Für die meisten Startups, die Chatbots, Suche oder Content-Generation bauen, fällt man in die Kategorie minimales Risiko unter dem AI Act. Aber die DSGVO gilt in jedem Fall.
Wohin gehen die Nutzerdaten?
Wenn ein Nutzer eine Nachricht an dein KI-Feature sendet:
Nutzer → Dein Backend → LLM API (OpenAI/Anthropic/etc.) → Antwort → Nutzer
Jeder Schritt ist ein Datenverarbeitungsvorgang.
OpenAI API
- Daten werden an US-Server gesendet (oder EU via Azure OpenAI)
- OpenAI trainiert nicht auf API-Daten
- Aber: Daten durchqueren US-Infrastruktur → CLOUD Act gilt
- Aufbewahrung: 30 Tage für Missbrauchsüberwachung (kann auf 0 reduziert werden)
Self-Hosted Modelle (Llama, Mistral)
- Daten bleiben auf deinen Servern
- Volle Kontrolle über Aufbewahrung und Löschung
- Keine Sub-Prozessor-Probleme
- Höhere Infrastrukturkosten
Wenn personenbezogene Daten die EU verlassen, um einen LLM-Anbieter zu erreichen, brauchst du: (1) einen Auftragsverarbeitungsvertrag, (2) Standardvertragsklauseln und (3) eine Transfer-Folgenabschätzung. Self-Hosting eliminiert alle drei.
DSGVO-Checkliste für KI-Features
1. Rechtsgrundlage festlegen
Einwilligung: Nutzer stimmt explizit der KI-Verarbeitung zu. Granulares Opt-in nötig.
Berechtigtes Interesse: Du argumentierst, dass das KI-Feature im beiderseitigen Interesse liegt. Erfordert eine dokumentierte Interessenabwägung.
2. Datenminimierung umsetzen
Schick nicht das gesamte Nutzerprofil zum LLM. Strip unnötige personenbezogene Daten vor dem API-Call:
def sanitize_for_llm(user_message: str, user_context: dict) -> str:
"""PII vor dem Senden zum LLM strippen."""
context = {
"subscription_tier": user_context.get("tier"),
"language": user_context.get("language"),
# NICHT inkludieren: email, name, adresse, telefon
}
return f"Context: {json.dumps(context)}\n\nNutzerfrage: {user_message}"
3. Recht auf Löschung handhaben
Wenn du RAG mit einer Vektordatenbank nutzt, könnten Nutzerdaten existieren in:
- Chat-Verlauf (PostgreSQL) — einfach zu löschen
- Vektor-Embeddings (Pinecone, Qdrant, pgvector) — schwieriger
- LLM-Anbieter-Logs — abhängig von deren Aufbewahrungsrichtlinie
- Anwendungs-Logs — oft übersehen
4. Transparenz gewährleisten
Nutzer müssen wissen, dass sie mit KI sprechen. Klarer Hinweis, nicht versteckt.
5. AVV mit dem LLM-Anbieter abschließen
Sowohl OpenAI als auch Anthropic bieten Auftragsverarbeitungsverträge an. Vor dem Produktivgang abschließen.
EU-gehostete Alternativen
| Option | Modellqualität | EU-Hosting | Kosten |
|---|---|---|---|
| Azure OpenAI (EU-Region) | GPT-4-Niveau | Ja (EU West) | Pay-per-Token |
| Mistral (La Plateforme) | Exzellent | Ja (Frankreich) | Pay-per-Token |
| Self-hosted Llama 3 | Sehr gut | Volle Kontrolle | 200-500 €/Monat |
| Ollama auf Hetzner | Gut-Exzellent | Ja (Deutschland) | 50-200 €/Monat |
Unsere Standard-Empfehlung für EU-Startups: Mistral API für Produktion, Ollama auf Hetzner für Entwicklung und Testing.
Häufige Fehler
- Gesamte Konversationen loggen ohne Aufbewahrungsrichtlinie. 90-Tage-Auto-Delete setzen.
- Nutzer-PII in RAG-Dokumenten einbetten. Nutzerdaten von der Wissensbasis trennen.
- Kein Consent-Management für KI-Features. Einen Toggle hinzufügen.
- Sub-Prozessor-Ketten ignorieren. OpenAI nutzt Azure. Azure nutzt... du musst die gesamte Kette kennen.
- Keine Datenschutz-Folgenabschätzung. Erforderlich bei KI-Verarbeitung personenbezogener Daten im großen Maßstab.
Du baust KI-Features für den europäischen Markt? Wir kümmern uns von Tag eins um Compliance. Erfahre mehr über unsere KI- & LLM-Integration.


