Your data belongs to you.
Even when you use AI.
Every prompt is a data leak
When you enter sensitive data into an AI tool, it leaves your organization. Irreversibly. PrivacyProxy prevents exactly that.
Not just a wrapper — a purpose-built privacy engine.
Tools like Lakera, Private AI, or Microsoft Purview are cloud services built for enterprises. AUSTR.AI is open source, runs locally, and was built for European SMBs.
How PrivacyProxy works
Four steps stand between your sensitive data and the LLM. Fully automatic, transparent, and reversible.
Live-Demo
Teste PrivacyProxy mit echten österreichischen Beispieldaten — oder gib deinen eigenen Text ein. Klick dich nach der Analyse Schritt für Schritt durch die Pipeline.
Diese Demo nutzt die Mistral API (EU-gehostet) zur Verarbeitung. Dein Text wird vorher anonymisiert — das LLM sieht nur Codenames, nie deine echten Daten. Session-Daten werden nach 30 Minuten automatisch gelöscht. Verwende trotzdem keine hochsensiblen Echtdaten, sondern nutze die Beispiele oder fiktive Texte.
Datei hierher ziehen oder klicken
PDF, DOCX, XLSX, TXT, CSV, Bilder (PNG, JPG, TIFF, BMP, WebP)
Max. 10 MB
Ob Einzelperson oder Konzern — deine Daten zuerst.
Du nutzt ChatGPT, Claude oder Gemini?
Dann landen deine Eingaben auf Servern in den USA. Kundennamen, Kontonummern, Diagnosen, Passwörter — alles wird gespeichert, teilweise bis zu 30 Tage.
Die Desktop-App hilft dir, sensible Daten vor dem Absenden zu schützen — per Copy-Paste. Du anonymisierst deinen Text lokal, fügst ihn in das KI-Tool ein und deanonymisierst die Antwort danach. Kein technisches Wissen nötig.
So funktioniert es (Desktop-App)
Kein Terminal, keine Konfiguration. App starten, fertig.
Einfügen, Beispiel wählen, oder PDF/DOCX/Bild hochladen.
Sensible Daten werden lokal erkannt und durch Codenames ersetzt. Der geschützte Text wird automatisch in die Zwischenablage kopiert.
Die KI sieht nur "Arion bei Nexon Corp" statt deiner echten Daten.
Antwort kopieren, in die App einfügen, Klick — deine echten Daten sind wieder drin.
Was du erwarten kannst — und was nicht
✓ Das funktioniert
- IBANs, Kontonummern, Kreditkarten — 95%+ Erkennung
- E-Mail-Adressen, Telefonnummern — 95%+ Erkennung
- Vor- und Nachnamen mit Kontext — 85-92%
- Passwörter und API Keys — 90%+ wenn als solche erkennbar
- Diagnosen und Medikamente — 80-85%
- Alles läuft lokal — kein Server, kein Cloud-Dienst
✗ Das funktioniert nicht
- 100% Garantie — es können Daten durchrutschen
- Geschäftsgeheimnisse ohne Personenbezug ("wir planen eine Übernahme")
- Unbekannte Firmennamen die wie normale Wörter klingen
- Automatisches Abfangen — du musst den Text bewusst durch die App schicken
- Ersatz für einen Datenschutzbeauftragten
Ihre Mitarbeiter nutzen KI — schützen Sie die Daten.
Ob erlaubt oder nicht: KI-Tools werden im Arbeitsalltag eingesetzt. Jeder Prompt mit Kundendaten, Vertragsinhalten oder internen Zahlen ist ein potenzielles DSGVO-Risiko.
Der API Proxy (aai start) ist die Lösung für Unternehmen: Er sitzt zwischen Ihren Anwendungen und dem LLM-Dienst. Jeder Request wird automatisch anonymisiert, jede Response automatisch rehydriert — ohne dass Mitarbeiter etwas tun müssen. Kein Copy-Paste, kein manueller Schritt.
So funktioniert der API Proxy
aai start startet den lokalen Proxy auf http://localhost:8282. Der Proxy unterstützt Anthropic (Claude), OpenAI (GPT), Mistral, und jedes LLM mit OpenAI-kompatibler API (inkl. Ollama, vLLM).
aai shell → /settings keys — Hinterlegen Sie den API Key Ihres LLM-Anbieters (z.B. Anthropic, OpenAI). Bei selbst gehosteten Modellen (Ollama, vLLM) ist kein Key nötig.
Statt https://api.openai.com tragen Sie http://localhost:8282 als API-Endpunkt ein. Funktioniert mit Cursor, Continue, eigenen Apps — überall wo eine API-URL konfigurierbar ist.
Ab jetzt anonymisiert der Proxy jeden Request und rehydriert jede Response transparent. Auch Streaming (SSE) wird unterstützt. Mitarbeiter merken keinen Unterschied.
Wichtig zu wissen
Der Proxy leitet anonymisierte Anfragen an LLM-Dienste weiter. Dafür braucht Ihr Unternehmen einen API-Zugang beim jeweiligen Anbieter (OpenAI, Anthropic, Mistral, etc.). Wenn Sie ein eigenes LLM hosten (z.B. über Ollama oder vLLM), funktioniert der Proxy ebenfalls — sofern das LLM eine OpenAI-kompatible API bereitstellt.
Die Desktop-App arbeitet Clipboard-basiert: Text anonymisieren, in beliebiges KI-Tool einfügen, Antwort deanonymisieren. Das funktioniert mit jedem Tool, jeder Website, jeder App — ohne Konfiguration.
Die Erkennungsrate liegt je nach Datentyp bei 80-99%. Für hochsensible Bereiche (HR, Recht, M&A) empfehlen wir die Kombination aus AUSTR.AI und gepflegten Deny-Lists, plus organisatorische Maßnahmen.
MIT-Lizenz. Keine Lizenzgebühren, keine Nutzerlimits, kein Vendor-Lock-in. Die einzigen Kosten: Hardware und Arbeitszeit für Setup.
Häufige Fragen
Läuft AUSTR.AI wirklich komplett lokal?
Ja. Die Erkennung und Anonymisierung passiert zu 100% auf deinem Rechner. Es wird keine Verbindung zu unseren oder anderen Servern aufgebaut. Die einzige Netzwerkkommunikation entsteht, wenn du den anonymisierten Text an ein KI-Tool sendest — und dann sind die sensiblen Daten bereits durch Codenames ersetzt.
Was sind Codenames?
"Thomas Gruber" wird zu "Arion", "Innovatech GmbH" wird zu "Nexon Corp". Das sind erfundene Begriffe die in keiner Sprache existieren und nicht zurückübersetzt werden können — anders als z.B. chinesische oder arabische Fake-Namen, die ein LLM sofort zurückübersetzen könnte. Strukturierte Daten wie IBANs werden zu Referenz-Codes wie [AT_IBAN_1].
Welche KI-Tools werden unterstützt?
Desktop-App: Jedes KI-Tool — ChatGPT, Claude, Gemini, Copilot, jede Website, jede App. Funktioniert über Copy-Paste.
API Proxy: Jedes LLM mit Anthropic- oder OpenAI-kompatibler API. Das umfasst: Claude, GPT, Mistral, und selbst gehostete Modelle über Ollama, vLLM, LocalAI oder ähnliche Frameworks. Voraussetzung: ein API Key oder Zugang zum LLM-Endpoint.
Kann ich mein eigenes LLM (z.B. Qwen, Llama) nutzen?
Ja — wenn es über eine OpenAI-kompatible API erreichbar ist. Ollama und vLLM stellen das automatisch bereit. Wenn Sie ein Modell über ein einfaches Python-Script ohne API laufen lassen, greift der Proxy nicht. Die Desktop-App funktioniert aber immer (Clipboard-basiert).
Wie hoch ist die Erkennungsrate?
Strukturierte Daten (IBANs, E-Mails, Telefonnummern): 95-99%. Personennamen: 80-92%. Firmennamen: 80-90%. Passwörter/API Keys: 90-95%. Diagnosen: 80-85%. Die Erkennungsrate steigt deutlich, wenn Sie firmenspezifische Begriffe in die Deny-List eintragen — dort gelistete Begriffe werden zu 100% erkannt.
Was ist die Deny-List?
Eine Liste von Begriffen die immer anonymisiert werden — egal ob das System sie automatisch erkennen würde oder nicht. Tragen Sie dort Ihre Firmennamen, Projektnamen, Kundenkürzel und interne Bezeichnungen ein. Das ist Ihr wichtigstes Werkzeug für die Lücken in der automatischen Erkennung.
Ist AUSTR.AI DSGVO-konform?
AUSTR.AI unterstützt die DSGVO-Grundsätze Datenminimierung (Art. 5), Privacy by Design (Art. 25) und Sicherheit der Verarbeitung (Art. 32). Es reduziert das Risiko bei Drittlandtransfers (Art. 44-49) erheblich. Aber: AUSTR.AI ist ein technisches Werkzeug, keine rechtliche Garantie. Eine vollständige DSGVO-Konformitätsbewertung erfordert die Einbindung Ihres Datenschutzbeauftragten.
Wie groß ist AUSTR.AI?
Die Terminal-Version (pip install austrai) ist leichtgewichtig und lädt die Erkennungsmodelle (GLiNER ~400 MB, SpaCy ~15 MB) beim ersten Start automatisch herunter. Die Desktop-App als eigenständiger Download (.dmg) ist in Vorbereitung — Zielgröße unter 1 GB.
Was kostet AUSTR.AI?
Nichts. Open Source unter MIT-Lizenz. Keine Lizenzgebühren, keine Nutzerlimits, keine Telemetrie. Die einzigen Kosten: API Keys für die LLM-Dienste die Sie ohnehin nutzen, und optional Hardware für einen zentralen Server.
Schützt AUSTR.AI auch Geschäftsgeheimnisse?
Nein — nicht automatisch. AUSTR.AI erkennt personenbezogene Daten (Namen, Nummern, Adressen). Ein Satz wie "wir planen die Übernahme im Q3" enthält keine erkennbaren PII-Muster und geht unverändert durch. Für solche Fälle können Sie die Deny-List nutzen oder organisatorische Richtlinien erstellen, welche Inhalte überhaupt in KI-Tools eingegeben werden dürfen.
Get started — in 60 seconds.
Two ways to use AUSTR.AI: The desktop app for easy copy-paste anonymization, or the API proxy for fully automatic protection. Both run locally on your machine.
Desktop App
For less technical users — copy-paste workflow. Anonymize text, paste into any AI tool, de-anonymize the response. Works with ChatGPT, Claude, Gemini, any website.
pip install austrai and aai app in the terminal.
pip install austrai → aai app
Windows version also coming soon API Proxy + CLI
Fully automatic protection. The proxy sits between your app and the LLM — anonymizes every request, restores every response. No copy-paste. Python 3.10+ required.
pip install austrai aai start # Start proxy on :8282 aai anon "Text" # Anonymize text aai shell # Settings + API keys Applications
PrivacyProxy protects wherever sensitive data meets AI.
Open Source.
Made in Austria.
PrivacyProxy is an open-source project from Austria. Runs entirely locally on your machine — with pip install austrai. The entire codebase is publicly viewable, auditable, and extensible. No vendor lock-in, no hidden costs.
- MIT License — Free to use, including commercially
- GDPR-compliant detection — Names, IBANs, passwords, API keys, diagnoses, IP addresses, dates of birth
- Local or cloud — Runs on your machine or with EU-hosted LLM (Mistral)
- No logging — No data is stored
Tech Stack
Architecture
Using AI responsibly.
AUSTR.AI is a project by Florian Bieche — communications consultant and AI enabler based in Vienna. I help companies integrate artificial intelligence meaningfully and in compliance with data protection regulations.
PrivacyProxy was born from daily work with companies that want to use AI but have data privacy concerns. The solution: Sensitive data never leaves your own infrastructure.
Beyond PrivacyProxy, AUSTR.AI offers:
- AI consulting for businesses
- Custom AI solution development
- Workshops & training on AI applications