Deine Daten gehören dir.
Auch wenn du KI nutzt.

PrivacyProxy erkennt sensible Daten in deinen Prompts — Namen, IBANs, Passwörter, Diagnosen, IP-Adressen — anonymisiert sie mit nicht-rückverfolgbaren Codenames und setzt die echten Daten erst in der Antwort wieder ein. Läuft komplett lokal. Open Source. Made in Austria.

Dein Text "Herr Gruber, IBAN: AT48..."
Anonymisierung "Herr Arion, IBAN: [AT_IBAN_1]"
LLM KI verarbeitet nur
anonyme Daten
Re-Hydrierung Antwort mit
echten Daten

Jeder Prompt ist ein Datenleck

Wenn du sensible Daten in ein KI-Tool eingibst, verlassen sie dein Unternehmen. Unwiderruflich. PrivacyProxy verhindert genau das.

Personendaten

Namen, Sozialversicherungsnummern, Adressen, Telefonnummern — all das landet in Prompts und auf fremden Servern.

82% der Unternehmen geben an, dass Mitarbeitende sensible Daten in KI-Tools eingeben

Geschäftsdaten

UIDs, IBANs, Firmenbuchnummern, Vertragsdetails — vertrauliche Geschäftsinformationen in KI-Prompts sind ein Compliance-Risiko.

DSGVO Verstöße können bis zu 20 Mio. EUR oder 4% des Jahresumsatzes kosten

Gesundheitsdaten

Befunde, Diagnosen, Patientennamen — medizinische Daten sind besonders schützenswert und unterliegen strengen Regulierungen.

Art. 9 DSGVO: Gesundheitsdaten sind "besondere Kategorien" mit erhöhtem Schutzbedarf

So funktioniert PrivacyProxy

Vier Schritte stehen zwischen deinen sensiblen Daten und dem LLM. Vollautomatisch, transparent, und reversibel.

01

Eingabe

Der Benutzer gibt einen Text mit sensiblen Daten ein.

"Bitte erstellen Sie ein Schreiben an Herrn Thomas Gruber, UID ATU12345678..."
02

Erkennung

Drei-Schichten-Erkennung: GLiNER (F1 0.98) + Presidio + 2200 Vornamen-DB erkennen Namen, IBANs, Passwörter, Diagnosen, IP-Adressen, Geburtsdaten, Kreditkarten und mehr.

"...an Herrn Thomas Gruber, UID ATU12345678..."
03

Anonymisierung

Erkannte Entitäten werden durch nicht-rückverfolgbare Codenames ersetzt (z.B. "Arion", "Nexon Corp"). Strukturierte Daten werden zu Referenz-Codes ([AT_IBAN_1]). Ein verschlüsseltes Mapping wird lokal gespeichert.

"...an Arion, UID [AT_UID_NR_1]..."
04

Re-Hydrierung

Die LLM-Antwort kommt mit Codenames zurück. PrivacyProxy ersetzt sie lokal mit den echten Daten.

"...Sehr geehrter Herr Thomas Gruber, Ihre UID ATU12345678 wurde erfolgreich..."

Live-Demo

Teste PrivacyProxy mit echten österreichischen Beispieldaten — oder gib deinen eigenen Text ein. Klick dich nach der Analyse Schritt für Schritt durch die Pipeline.

Diese Demo nutzt die Mistral API (EU-gehostet) zur Verarbeitung. Dein Text wird vorher anonymisiert — das LLM sieht nur Codenames, nie deine echten Daten. Session-Daten werden nach 30 Minuten automatisch gelöscht. Verwende trotzdem keine hochsensiblen Echtdaten, sondern nutze die Beispiele oder fiktive Texte.

Beispiele:
0 / 2000

Datei hierher ziehen oder klicken

PDF, DOCX, XLSX, TXT, CSV, Bilder (PNG, JPG, TIFF, BMP, WebP)

Max. 10 MB

Ob Einzelperson oder Konzern — deine Daten zuerst.

Du nutzt ChatGPT, Claude oder Gemini?

Dann landen deine Eingaben auf Servern in den USA. Kundennamen, Kontonummern, Diagnosen, Passwörter — alles wird gespeichert, teilweise bis zu 30 Tage.

AUSTR.AI sitzt dazwischen. Bevor dein Text das Internet erreicht, werden sensible Daten durch erfundene Codenames ersetzt. Die KI arbeitet damit genauso gut — weiß aber nicht, wer du bist.

So funktioniert es

1
Desktop-App öffnen

Kein Terminal, keine Konfiguration. App starten, fertig.

2
Text eingeben oder Datei hochladen

Einfügen, Beispiel wählen, oder PDF/DOCX/Bild hochladen.

3
"Anonymisieren" klicken

Sensible Daten werden lokal erkannt und durch Codenames ersetzt. Der geschützte Text wird automatisch in die Zwischenablage kopiert.

4
In ChatGPT / Claude einfügen

Die KI sieht nur "Arion bei Nexon Corp" statt deiner echten Daten.

5
KI-Antwort deanonymisieren

Antwort kopieren, in die App einfügen, Klick — deine echten Daten sind wieder drin.

Was du erwarten kannst — und was nicht

✓ Das funktioniert
  • IBANs, Kontonummern, Kreditkarten — 95%+ Erkennung
  • E-Mail-Adressen, Telefonnummern — 95%+ Erkennung
  • Vor- und Nachnamen mit Kontext — 85-92%
  • Passwörter und API Keys — 90%+ wenn als solche erkennbar
  • Diagnosen und Medikamente — 80-85%
  • Alles läuft lokal — kein Server, kein Cloud-Dienst
✗ Das funktioniert nicht
  • 100% Garantie — es können Daten durchrutschen
  • Geschäftsgeheimnisse ohne Personenbezug ("wir planen eine Übernahme")
  • Unbekannte Firmennamen die wie normale Wörter klingen
  • Automatisches Abfangen — du musst den Text bewusst durch die App schicken
  • Ersatz für einen Datenschutzbeauftragten

Ihre Mitarbeiter nutzen KI — schützen Sie die Daten.

Ob erlaubt oder nicht: KI-Tools werden im Arbeitsalltag eingesetzt. Jeder Prompt mit Kundendaten, Vertragsinhalten oder internen Zahlen ist ein potenzielles DSGVO-Risiko.

AUSTR.AI lässt sich als transparente Schicht einsetzen — ohne den Arbeitsablauf zu verändern.

Drei Deployment-Optionen

Einfach
Desktop-App

Jeder Mitarbeiter installiert die App. Kein Server, keine IT-Abteilung.

  • 5 Minuten pro Arbeitsplatz
  • 10 Minuten Schulung
  • Funktioniert mit jedem KI-Tool (Clipboard-basiert)
  • Keine API Keys nötig
Empfohlen
API Proxy

AUSTR.AI als lokaler Proxy. KI-Tools werden auf den Proxy umkonfiguriert — der Rest passiert automatisch.

  • 1-2 Stunden Setup durch IT
  • Keine Schulung nötig (transparent)
  • Unterstützt: Anthropic (Claude), OpenAI (GPT), Mistral, und jedes LLM mit OpenAI-kompatibler API (inkl. Ollama, vLLM)
  • Benötigt API Key des jeweiligen LLM-Anbieters
Enterprise
Zentraler Server

Docker-Container auf Ihrem internen Server. Zentrale Verwaltung von Deny-Lists und Einstellungen.

  • Halber Tag Setup
  • Zentrale Deny-List-Verwaltung
  • 8+ GB RAM empfohlen
  • ~8-15 €/Monat bei Cloud-Hosting

Wichtig zu wissen

API Proxy braucht API Keys

Der Proxy leitet anonymisierte Anfragen an LLM-Dienste weiter. Dafür braucht Ihr Unternehmen einen API-Zugang beim jeweiligen Anbieter (OpenAI, Anthropic, Mistral, etc.). Wenn Sie ein eigenes LLM hosten (z.B. über Ollama oder vLLM), funktioniert der Proxy ebenfalls — sofern das LLM eine OpenAI-kompatible API bereitstellt.

Desktop-App braucht keine API Keys

Die Desktop-App arbeitet Clipboard-basiert: Text anonymisieren, in beliebiges KI-Tool einfügen, Antwort deanonymisieren. Das funktioniert mit jedem Tool, jeder Website, jeder App — ohne Konfiguration.

Keine Garantie für vollständige Anonymisierung

Die Erkennungsrate liegt je nach Datentyp bei 80-99%. Für hochsensible Bereiche (HR, Recht, M&A) empfehlen wir die Kombination aus AUSTR.AI und gepflegten Deny-Lists, plus organisatorische Maßnahmen.

Open Source, keine Kosten

MIT-Lizenz. Keine Lizenzgebühren, keine Nutzerlimits, kein Vendor-Lock-in. Die einzigen Kosten: Hardware und Arbeitszeit für Setup.

Häufige Fragen

Läuft AUSTR.AI wirklich komplett lokal?

Ja. Die Erkennung und Anonymisierung passiert zu 100% auf deinem Rechner. Es wird keine Verbindung zu unseren oder anderen Servern aufgebaut. Die einzige Netzwerkkommunikation entsteht, wenn du den anonymisierten Text an ein KI-Tool sendest — und dann sind die sensiblen Daten bereits durch Codenames ersetzt.

Was sind Codenames?

"Thomas Gruber" wird zu "Arion", "Innovatech GmbH" wird zu "Nexon Corp". Das sind erfundene Begriffe die in keiner Sprache existieren und nicht zurückübersetzt werden können — anders als z.B. chinesische oder arabische Fake-Namen, die ein LLM sofort zurückübersetzen könnte. Strukturierte Daten wie IBANs werden zu Referenz-Codes wie [AT_IBAN_1].

Welche KI-Tools werden unterstützt?

Desktop-App: Jedes KI-Tool — ChatGPT, Claude, Gemini, Copilot, jede Website, jede App. Funktioniert über Copy-Paste.
API Proxy: Jedes LLM mit Anthropic- oder OpenAI-kompatibler API. Das umfasst: Claude, GPT, Mistral, und selbst gehostete Modelle über Ollama, vLLM, LocalAI oder ähnliche Frameworks. Voraussetzung: ein API Key oder Zugang zum LLM-Endpoint.

Kann ich mein eigenes LLM (z.B. Qwen, Llama) nutzen?

Ja — wenn es über eine OpenAI-kompatible API erreichbar ist. Ollama und vLLM stellen das automatisch bereit. Wenn Sie ein Modell über ein einfaches Python-Script ohne API laufen lassen, greift der Proxy nicht. Die Desktop-App funktioniert aber immer (Clipboard-basiert).

Wie hoch ist die Erkennungsrate?

Strukturierte Daten (IBANs, E-Mails, Telefonnummern): 95-99%. Personennamen: 80-92%. Firmennamen: 80-90%. Passwörter/API Keys: 90-95%. Diagnosen: 80-85%. Die Erkennungsrate steigt deutlich, wenn Sie firmenspezifische Begriffe in die Deny-List eintragen — dort gelistete Begriffe werden zu 100% erkannt.

Was ist die Deny-List?

Eine Liste von Begriffen die immer anonymisiert werden — egal ob das System sie automatisch erkennen würde oder nicht. Tragen Sie dort Ihre Firmennamen, Projektnamen, Kundenkürzel und interne Bezeichnungen ein. Das ist Ihr wichtigstes Werkzeug für die Lücken in der automatischen Erkennung.

Ist AUSTR.AI DSGVO-konform?

AUSTR.AI unterstützt die DSGVO-Grundsätze Datenminimierung (Art. 5), Privacy by Design (Art. 25) und Sicherheit der Verarbeitung (Art. 32). Es reduziert das Risiko bei Drittlandtransfers (Art. 44-49) erheblich. Aber: AUSTR.AI ist ein technisches Werkzeug, keine rechtliche Garantie. Eine vollständige DSGVO-Konformitätsbewertung erfordert die Einbindung Ihres Datenschutzbeauftragten.

Wie groß ist AUSTR.AI?

Die Terminal-Version (pip install austrai) ist leichtgewichtig und lädt die Erkennungsmodelle (GLiNER ~400 MB, SpaCy ~15 MB) beim ersten Start automatisch herunter. Die Desktop-App als eigenständiger Download (.dmg) ist in Vorbereitung — Zielgröße unter 1 GB.

Was kostet AUSTR.AI?

Nichts. Open Source unter MIT-Lizenz. Keine Lizenzgebühren, keine Nutzerlimits, keine Telemetrie. Die einzigen Kosten: API Keys für die LLM-Dienste die Sie ohnehin nutzen, und optional Hardware für einen zentralen Server.

Schützt AUSTR.AI auch Geschäftsgeheimnisse?

Nein — nicht automatisch. AUSTR.AI erkennt personenbezogene Daten (Namen, Nummern, Adressen). Ein Satz wie "wir planen die Übernahme im Q3" enthält keine erkennbaren PII-Muster und geht unverändert durch. Für solche Fälle können Sie die Deny-List nutzen oder organisatorische Richtlinien erstellen, welche Inhalte überhaupt in KI-Tools eingegeben werden dürfen.

Jetzt starten — in 60 Sekunden.

Lade die Desktop-App herunter oder installiere AUSTR.AI per Terminal. Alles läuft lokal auf deinem Rechner — keine Cloud, kein Drittanbieter.

Desktop App

Für macOS — Drag & Drop, One-Click Anonymisierung, Bildschwärzung, Audio-Transkription. Kein Terminal nötig.

macOS · In Vorbereitung
Die Desktop-App als eigenständiger Download (.dmg) ist in Vorbereitung. Bis dahin: pip install austrai und aai app im Terminal. pip install austrai → aai app Windows-Version ebenfalls in Vorbereitung

Terminal (pip)

Für Entwickler — CLI, API Proxy, Shell. Python 3.10+ erforderlich.

pip install austrai
aai anon "Dein Text hier" aai start   # Proxy starten aai shell   # Einstellungen
Auf PyPI ansehen

Source Code

MIT-Lizenz. Frei nutzbar, veränderbar und erweiterbar. Auch kommerziell.

Auf GitHub ansehen

Anwendungsfälle

PrivacyProxy schützt überall dort, wo sensible Daten auf KI treffen.

Unternehmen

Nutze KI für E-Mails, Zusammenfassungen und Analysen — ohne Kundendaten, IBANs oder Vertragsinformationen preiszugeben.

Beispiel: Ein Vertriebsmitarbeiter lässt eine Angebotsmail von der KI formulieren. PrivacyProxy anonymisiert Kundennamen, Firmendaten und Beträge automatisch.

Gesundheitswesen

Medizinische Befunde von KI zusammenfassen lassen — ohne Patientennamen, SVNr oder Adressen an den LLM-Anbieter weiterzugeben.

Beispiel: Eine Ärztin lässt einen Befundbericht in Laiensprache übersetzen. Patientendaten werden vor dem Senden automatisch maskiert.

Rechtsberatung

Verträge und Schriftsätze von KI prüfen lassen — Mandantendaten, Firmenbuchnummern und Beträge bleiben geschützt.

Beispiel: Ein Anwalt lässt eine Vertragsklausel auf Schwachstellen prüfen. Parteiennamen und Geschäftszahlen werden durch Codenames ersetzt.

Entwickler

Integriere PrivacyProxy als Middleware in deine App. REST-API, Docker-ready, MIT-lizenziert.

Beispiel: Ein SaaS-Startup baut einen KI-Assistenten und nutzt PrivacyProxy als Proxy-Layer, um DSGVO-Konformität sicherzustellen.

Open Source.
Made in Austria.

PrivacyProxy ist ein Open-Source-Projekt aus Österreich. Läuft komplett lokal auf deinem Rechner — mit pip install austrai. Der gesamte Code ist öffentlich einsehbar, auditierbar und erweiterbar. Kein Vendor-Lock-in, keine versteckten Kosten.

  • MIT-Lizenz — Frei nutzbar, auch kommerziell
  • DSGVO-konforme Erkennung — Namen, IBANs, Passwörter, API Keys, Diagnosen, IP-Adressen, Geburtsdaten
  • Lokal oder Cloud — Läuft auf deinem Rechner oder mit EU-gehostetem LLM (Mistral)
  • Kein Logging — Keine Daten werden gespeichert

Tech Stack

Python GLiNER Presidio SpaCy pip install API Proxy Desktop App Whisper Docker

Architektur

Frontend Astro (Static)
PrivacyProxy API FastAPI + Presidio
LLM (Mistral / GPT / Claude) via LiteLLM oder lokal

KI verantwortungsvoll einsetzen.

AUSTR.AI ist ein Projekt von Florian Bieche — Kommunikationsberater und KI-Enabler aus Wien. Ich helfe Unternehmen, künstliche Intelligenz sinnvoll und datenschutzkonform in ihre Prozesse zu integrieren.

PrivacyProxy entstand aus der täglichen Arbeit mit Unternehmen, die KI nutzen wollen, aber Bedenken beim Datenschutz haben. Die Lösung: Sensible Daten verlassen nie die eigene Infrastruktur.

Neben PrivacyProxy bietet AUSTR.AI:

  • KI-Beratung für Unternehmen
  • Entwicklung maßgeschneiderter KI-Lösungen
  • Workshops & Trainings zu KI-Anwendungen
FB
Florian Bieche Kommunikationsberater & KI-Enabler Wien, Österreich