Your data belongs to you.
Even when you use AI.

PrivacyProxy detects sensitive data in your prompts — names, IBANs, passwords, diagnoses, IP addresses — and replaces them with untraceable codenames. Use it as an API proxy for fully automatic protection, or via the desktop app with copy-paste. Runs entirely locally. Open source. Made in Austria.

Your text "Mr. Smith, IBAN: DE89..."
Anonymization "Herr Arion, IBAN: [AT_IBAN_1]"
LLM AI processes only
anonymous data
Rehydration Response with
real data

Every prompt is a data leak

When you enter sensitive data into an AI tool, it leaves your organization. Irreversibly. PrivacyProxy prevents exactly that.

Personal data

Names, social security numbers, addresses, phone numbers — all of this ends up in prompts and on third-party servers.

82% of companies report that employees enter sensitive data into AI tools

Business data

Tax IDs, IBANs, company registration numbers, contract details — confidential business information in AI prompts is a compliance risk.

GDPR Violations can cost up to EUR 20M or 4% of annual revenue

Health data

Medical reports, diagnoses, patient names — health data requires special protection and is subject to strict regulations.

Art. 9 GDPR: Health data is classified as 'special categories' with enhanced protection requirements

Not just a wrapper — a purpose-built privacy engine.

Tools like Lakera, Private AI, or Microsoft Purview are cloud services built for enterprises. AUSTR.AI is open source, runs locally, and was built for European SMBs.

Fully local

Other PII tools send your data to their cloud for analysis. AUSTR.AI runs 100% on your machine — nothing leaves your network. Not for analysis, not for improvement, not for training.

3-layer detection

No single tool is perfect. That's why AUSTR.AI combines three independent detection layers: GLiNER (F1 0.98), Presidio + SpaCy, and optionally a local LLM (Ollama). What one layer misses, the next catches.

Untraceable codenames

Most tools replace names with [REDACTED] or fake names. Problem: An LLM can instantly recognize 'Yuki Tanaka' as a Japanese pseudonym. AUSTR.AI uses abstract codenames like 'Arion' — invented, languageless, impossible to reverse-translate.

Bidirectional pipeline

Anonymization is only half the story. AUSTR.AI automatically restores your real data in the AI response (rehydration) — including streaming responses (SSE). No manual replacing, no copy-paste.

How PrivacyProxy works

Four steps stand between your sensitive data and the LLM. Fully automatic, transparent, and reversible.

01

Input

The user enters text containing sensitive data.

"Bitte erstellen Sie ein Schreiben an Herrn Thomas Gruber, UID ATU12345678..."
02

Detection

Three-layer detection: GLiNER (F1 0.98) + Presidio + 2,200 first names DB recognizes names, IBANs, passwords, diagnoses, IP addresses, dates of birth, credit cards, and more.

"...an Herrn Thomas Gruber, UID ATU12345678..."
03

Anonymization

Detected entities are replaced with untraceable codenames (e.g., "Arion", "Nexon Corp"). Structured data becomes reference codes ([AT_IBAN_1]). An encrypted mapping is stored locally.

"...an Arion, UID [AT_UID_NR_1]..."
04

Rehydration

The LLM response comes back with codenames. PrivacyProxy replaces them locally with the real data.

"...Sehr geehrter Herr Thomas Gruber, Ihre UID ATU12345678 wurde erfolgreich..."

Live-Demo

Teste PrivacyProxy mit echten österreichischen Beispieldaten — oder gib deinen eigenen Text ein. Klick dich nach der Analyse Schritt für Schritt durch die Pipeline.

Diese Demo nutzt die Mistral API (EU-gehostet) zur Verarbeitung. Dein Text wird vorher anonymisiert — das LLM sieht nur Codenames, nie deine echten Daten. Session-Daten werden nach 30 Minuten automatisch gelöscht. Verwende trotzdem keine hochsensiblen Echtdaten, sondern nutze die Beispiele oder fiktive Texte.

Beispiele:
0 / 2000

Datei hierher ziehen oder klicken

PDF, DOCX, XLSX, TXT, CSV, Bilder (PNG, JPG, TIFF, BMP, WebP)

Max. 10 MB

Ob Einzelperson oder Konzern — deine Daten zuerst.

Du nutzt ChatGPT, Claude oder Gemini?

Dann landen deine Eingaben auf Servern in den USA. Kundennamen, Kontonummern, Diagnosen, Passwörter — alles wird gespeichert, teilweise bis zu 30 Tage.

Die Desktop-App hilft dir, sensible Daten vor dem Absenden zu schützen — per Copy-Paste. Du anonymisierst deinen Text lokal, fügst ihn in das KI-Tool ein und deanonymisierst die Antwort danach. Kein technisches Wissen nötig.

So funktioniert es (Desktop-App)

1
Desktop-App öffnen

Kein Terminal, keine Konfiguration. App starten, fertig.

2
Text eingeben oder Datei hochladen

Einfügen, Beispiel wählen, oder PDF/DOCX/Bild hochladen.

3
"Anonymisieren" klicken

Sensible Daten werden lokal erkannt und durch Codenames ersetzt. Der geschützte Text wird automatisch in die Zwischenablage kopiert.

4
In ChatGPT / Claude einfügen

Die KI sieht nur "Arion bei Nexon Corp" statt deiner echten Daten.

5
KI-Antwort deanonymisieren

Antwort kopieren, in die App einfügen, Klick — deine echten Daten sind wieder drin.

Was du erwarten kannst — und was nicht

✓ Das funktioniert
  • IBANs, Kontonummern, Kreditkarten — 95%+ Erkennung
  • E-Mail-Adressen, Telefonnummern — 95%+ Erkennung
  • Vor- und Nachnamen mit Kontext — 85-92%
  • Passwörter und API Keys — 90%+ wenn als solche erkennbar
  • Diagnosen und Medikamente — 80-85%
  • Alles läuft lokal — kein Server, kein Cloud-Dienst
✗ Das funktioniert nicht
  • 100% Garantie — es können Daten durchrutschen
  • Geschäftsgeheimnisse ohne Personenbezug ("wir planen eine Übernahme")
  • Unbekannte Firmennamen die wie normale Wörter klingen
  • Automatisches Abfangen — du musst den Text bewusst durch die App schicken
  • Ersatz für einen Datenschutzbeauftragten

Ihre Mitarbeiter nutzen KI — schützen Sie die Daten.

Ob erlaubt oder nicht: KI-Tools werden im Arbeitsalltag eingesetzt. Jeder Prompt mit Kundendaten, Vertragsinhalten oder internen Zahlen ist ein potenzielles DSGVO-Risiko.

Der API Proxy (aai start) ist die Lösung für Unternehmen: Er sitzt zwischen Ihren Anwendungen und dem LLM-Dienst. Jeder Request wird automatisch anonymisiert, jede Response automatisch rehydriert — ohne dass Mitarbeiter etwas tun müssen. Kein Copy-Paste, kein manueller Schritt.

So funktioniert der API Proxy

1
Proxy starten

aai start startet den lokalen Proxy auf http://localhost:8282. Der Proxy unterstützt Anthropic (Claude), OpenAI (GPT), Mistral, und jedes LLM mit OpenAI-kompatibler API (inkl. Ollama, vLLM).

2
API Key konfigurieren

aai shell/settings keys — Hinterlegen Sie den API Key Ihres LLM-Anbieters (z.B. Anthropic, OpenAI). Bei selbst gehosteten Modellen (Ollama, vLLM) ist kein Key nötig.

3
Anwendungen umkonfigurieren

Statt https://api.openai.com tragen Sie http://localhost:8282 als API-Endpunkt ein. Funktioniert mit Cursor, Continue, eigenen Apps — überall wo eine API-URL konfigurierbar ist.

4
Fertig — alles automatisch

Ab jetzt anonymisiert der Proxy jeden Request und rehydriert jede Response transparent. Auch Streaming (SSE) wird unterstützt. Mitarbeiter merken keinen Unterschied.

Drei Deployment-Optionen

Einfach
Desktop-App

Jeder Mitarbeiter installiert die App. Kein Server, keine IT-Abteilung.

  • 5 Minuten pro Arbeitsplatz
  • 10 Minuten Schulung
  • Funktioniert mit jedem KI-Tool (Clipboard-basiert)
  • Keine API Keys nötig
Empfohlen
API Proxy

AUSTR.AI als lokaler Proxy. KI-Tools werden auf den Proxy umkonfiguriert — der Rest passiert automatisch.

  • 1-2 Stunden Setup durch IT
  • Keine Schulung nötig (transparent)
  • Unterstützt: Anthropic (Claude), OpenAI (GPT), Mistral, und jedes LLM mit OpenAI-kompatibler API (inkl. Ollama, vLLM)
  • Benötigt API Key des jeweiligen LLM-Anbieters
Enterprise
Zentraler Server

Docker-Container auf Ihrem internen Server. Zentrale Verwaltung von Deny-Lists und Einstellungen.

  • Halber Tag Setup
  • Zentrale Deny-List-Verwaltung
  • 8+ GB RAM empfohlen
  • ~8-15 €/Monat bei Cloud-Hosting

Wichtig zu wissen

API Proxy braucht API Keys

Der Proxy leitet anonymisierte Anfragen an LLM-Dienste weiter. Dafür braucht Ihr Unternehmen einen API-Zugang beim jeweiligen Anbieter (OpenAI, Anthropic, Mistral, etc.). Wenn Sie ein eigenes LLM hosten (z.B. über Ollama oder vLLM), funktioniert der Proxy ebenfalls — sofern das LLM eine OpenAI-kompatible API bereitstellt.

Desktop-App braucht keine API Keys

Die Desktop-App arbeitet Clipboard-basiert: Text anonymisieren, in beliebiges KI-Tool einfügen, Antwort deanonymisieren. Das funktioniert mit jedem Tool, jeder Website, jeder App — ohne Konfiguration.

Keine Garantie für vollständige Anonymisierung

Die Erkennungsrate liegt je nach Datentyp bei 80-99%. Für hochsensible Bereiche (HR, Recht, M&A) empfehlen wir die Kombination aus AUSTR.AI und gepflegten Deny-Lists, plus organisatorische Maßnahmen.

Open Source, keine Kosten

MIT-Lizenz. Keine Lizenzgebühren, keine Nutzerlimits, kein Vendor-Lock-in. Die einzigen Kosten: Hardware und Arbeitszeit für Setup.

Häufige Fragen

Läuft AUSTR.AI wirklich komplett lokal?

Ja. Die Erkennung und Anonymisierung passiert zu 100% auf deinem Rechner. Es wird keine Verbindung zu unseren oder anderen Servern aufgebaut. Die einzige Netzwerkkommunikation entsteht, wenn du den anonymisierten Text an ein KI-Tool sendest — und dann sind die sensiblen Daten bereits durch Codenames ersetzt.

Was sind Codenames?

"Thomas Gruber" wird zu "Arion", "Innovatech GmbH" wird zu "Nexon Corp". Das sind erfundene Begriffe die in keiner Sprache existieren und nicht zurückübersetzt werden können — anders als z.B. chinesische oder arabische Fake-Namen, die ein LLM sofort zurückübersetzen könnte. Strukturierte Daten wie IBANs werden zu Referenz-Codes wie [AT_IBAN_1].

Welche KI-Tools werden unterstützt?

Desktop-App: Jedes KI-Tool — ChatGPT, Claude, Gemini, Copilot, jede Website, jede App. Funktioniert über Copy-Paste.
API Proxy: Jedes LLM mit Anthropic- oder OpenAI-kompatibler API. Das umfasst: Claude, GPT, Mistral, und selbst gehostete Modelle über Ollama, vLLM, LocalAI oder ähnliche Frameworks. Voraussetzung: ein API Key oder Zugang zum LLM-Endpoint.

Kann ich mein eigenes LLM (z.B. Qwen, Llama) nutzen?

Ja — wenn es über eine OpenAI-kompatible API erreichbar ist. Ollama und vLLM stellen das automatisch bereit. Wenn Sie ein Modell über ein einfaches Python-Script ohne API laufen lassen, greift der Proxy nicht. Die Desktop-App funktioniert aber immer (Clipboard-basiert).

Wie hoch ist die Erkennungsrate?

Strukturierte Daten (IBANs, E-Mails, Telefonnummern): 95-99%. Personennamen: 80-92%. Firmennamen: 80-90%. Passwörter/API Keys: 90-95%. Diagnosen: 80-85%. Die Erkennungsrate steigt deutlich, wenn Sie firmenspezifische Begriffe in die Deny-List eintragen — dort gelistete Begriffe werden zu 100% erkannt.

Was ist die Deny-List?

Eine Liste von Begriffen die immer anonymisiert werden — egal ob das System sie automatisch erkennen würde oder nicht. Tragen Sie dort Ihre Firmennamen, Projektnamen, Kundenkürzel und interne Bezeichnungen ein. Das ist Ihr wichtigstes Werkzeug für die Lücken in der automatischen Erkennung.

Ist AUSTR.AI DSGVO-konform?

AUSTR.AI unterstützt die DSGVO-Grundsätze Datenminimierung (Art. 5), Privacy by Design (Art. 25) und Sicherheit der Verarbeitung (Art. 32). Es reduziert das Risiko bei Drittlandtransfers (Art. 44-49) erheblich. Aber: AUSTR.AI ist ein technisches Werkzeug, keine rechtliche Garantie. Eine vollständige DSGVO-Konformitätsbewertung erfordert die Einbindung Ihres Datenschutzbeauftragten.

Wie groß ist AUSTR.AI?

Die Terminal-Version (pip install austrai) ist leichtgewichtig und lädt die Erkennungsmodelle (GLiNER ~400 MB, SpaCy ~15 MB) beim ersten Start automatisch herunter. Die Desktop-App als eigenständiger Download (.dmg) ist in Vorbereitung — Zielgröße unter 1 GB.

Was kostet AUSTR.AI?

Nichts. Open Source unter MIT-Lizenz. Keine Lizenzgebühren, keine Nutzerlimits, keine Telemetrie. Die einzigen Kosten: API Keys für die LLM-Dienste die Sie ohnehin nutzen, und optional Hardware für einen zentralen Server.

Schützt AUSTR.AI auch Geschäftsgeheimnisse?

Nein — nicht automatisch. AUSTR.AI erkennt personenbezogene Daten (Namen, Nummern, Adressen). Ein Satz wie "wir planen die Übernahme im Q3" enthält keine erkennbaren PII-Muster und geht unverändert durch. Für solche Fälle können Sie die Deny-List nutzen oder organisatorische Richtlinien erstellen, welche Inhalte überhaupt in KI-Tools eingegeben werden dürfen.

Get started — in 60 seconds.

Two ways to use AUSTR.AI: The desktop app for easy copy-paste anonymization, or the API proxy for fully automatic protection. Both run locally on your machine.

Desktop App

For less technical users — copy-paste workflow. Anonymize text, paste into any AI tool, de-anonymize the response. Works with ChatGPT, Claude, Gemini, any website.

macOS · Coming soon
The standalone desktop app (.dmg) is coming soon. Until then: pip install austrai and aai app in the terminal. pip install austrai → aai app Windows version also coming soon

API Proxy + CLI

Fully automatic protection. The proxy sits between your app and the LLM — anonymizes every request, restores every response. No copy-paste. Python 3.10+ required.

pip install austrai
aai start   # Start proxy on :8282 aai anon "Text"   # Anonymize text aai shell   # Settings + API keys
View on PyPI

Source Code

MIT license. Free to use, modify, and extend. Including commercially.

View on GitHub

Applications

PrivacyProxy protects wherever sensitive data meets AI.

Enterprises

Use AI for emails, summaries, and analysis — without exposing customer data, IBANs, or contract information.

Example: A sales representative has the AI draft a proposal email. PrivacyProxy automatically anonymizes customer names, company data, and amounts.

Healthcare

Have AI summarize medical reports — without passing patient names, SSNs, or addresses to the LLM provider.

Example: A doctor has a medical report translated into plain language. Patient data is automatically masked before sending.

Legal

Have AI review contracts and briefs — client data, company registration numbers, and amounts remain protected.

Example: A lawyer has a contract clause checked for vulnerabilities. Party names and business figures are replaced with codenames.

Developers

Integrate PrivacyProxy as middleware into your app. REST API, Docker-ready, MIT-licensed.

Example: A SaaS startup builds an AI assistant and uses PrivacyProxy as a proxy layer to ensure GDPR compliance.

Open Source.
Made in Austria.

PrivacyProxy is an open-source project from Austria. Runs entirely locally on your machine — with pip install austrai. The entire codebase is publicly viewable, auditable, and extensible. No vendor lock-in, no hidden costs.

  • MIT License — Free to use, including commercially
  • GDPR-compliant detection — Names, IBANs, passwords, API keys, diagnoses, IP addresses, dates of birth
  • Local or cloud — Runs on your machine or with EU-hosted LLM (Mistral)
  • No logging — No data is stored

Tech Stack

Python GLiNER Presidio SpaCy pip install API Proxy Desktop App Whisper Docker

Architecture

Frontend Astro (Static)
PrivacyProxy API FastAPI + Presidio
LLM (Mistral / GPT / Claude) via LiteLLM oder lokal

Using AI responsibly.

AUSTR.AI is a project by Florian Bieche — communications consultant and AI enabler based in Vienna. I help companies integrate artificial intelligence meaningfully and in compliance with data protection regulations.

PrivacyProxy was born from daily work with companies that want to use AI but have data privacy concerns. The solution: Sensitive data never leaves your own infrastructure.

Beyond PrivacyProxy, AUSTR.AI offers:

  • AI consulting for businesses
  • Custom AI solution development
  • Workshops & training on AI applications
FB
Florian Bieche Communications Consultant & AI Enabler Vienna, Austria