§00 — Proxy de pseudonymisation souverain

« Vos données sensibles ne sortent jamais de France. »

Couche d'interception entre vos applications et les LLM cloud. Les données sensibles — y compris dans vos PDF et scans — sont remplacées par des placeholders avant l'envoi, restaurées à la volée dans la réponse.

  • Hors CLOUD Act
  • RGPD
  • Hébergé en France
  • Zéro log de contenu

→ Le flux en trois étapes

Vos PII s'arrêtent ici. Le LLM voit le reste.

  1. [01]

    Votre app

    SDK OpenAI / Anthropic standard.

  2. [02]

    Zonym FR

    Détecte, remplace, mappe en RAM.

  3. [03]

    LLM cloud

    GPT, Claude, Gemini, Mistral.

  1. 01

    Intercepter

    Votre application envoie sa requête à votre-tenant.zonym.ai/v1 au lieu d'api.openai.com. Aucune ligne de code à changer.

  2. 02

    Pseudonymiser

    Zonym détecte les entités sensibles (noms, NIR, RPPS, adresses, dates de naissance) et les remplace par des placeholders cohérents. Le mapping vit en RAM, jamais sur disque.

  3. 03

    Restituer

    La réponse du LLM est dépseudonymisée à la volée, token par token. Le mapping est détruit dès l'envoi de la dernière chunk. Aucune trace, aucun log.

→ Pour qui

Cinq métiers, des détecteurs spécialisés.

Chaque secteur a ses propres données sensibles : un NIR pour un avocat, un RPPS pour un médecin, un IBAN pour un assureur. Zonym embarque des modules métier déjà calibrés sur le droit français.

  • [01]

    Juridique

    NIR · RG · SIRET · dénominations · références de dossier

  • [02]

    Santé

    RPPS · ADELI · FINESS · DDN+âge · prescriptions

  • [03]

    Assurance

    ORIAS · ACPR · n° contrat · n° sinistre · IBAN/BIC

  • [04]

    Finance

    IBAN · BIC · n° de compte · RIB · références bancaires

  • [05]

    RH

    Identités · NIR · adresses · dates de naissance · contrats

Détecteurs personnalisés disponibles en formule Enterprise pour tout besoin métier spécifique (taxonomies internes, références produits, identifiants propriétaires).

§01 — Le problème

78%

des cabinets juridiques utilisent ChatGPT et Claude sans aucune protection des données.

CNB — Observatoire des usages numériques 2025

20M€

ou 4 % du chiffre d'affaires mondial — c'est le plafond d'amende RGPD pour une violation de l'obligation de sécurité du traitement.

RGPD Art. 83.5 — Sanctions administratives

8s

suffisent pour qu'un prompt contenant un NIR soit logué, indexé, retrouvé.

Estimation interne (chaîne logs cloud)

L'IA générative est entrée dans les cabinets sans entrer dans les politiques de sécurité. Les avocats, médecins, assureurs et fonctions RH dictent leurs notes à des modèles hébergés à l'autre bout du monde — soumis à des juridictions étrangères et à des durées de rétention contractuelles. Le secret professionnel devient une option de configuration. Zonym replace cette option par une garantie technique.

→ Trois approches face aux données sensibles

Trois façons. Une seule garde votre workflow intact.

Approche A

Bloquer l'envoi

DLP classique — Microsoft Purview, Symantec…

Empêche purement l'envoi vers le LLM dès qu'une donnée sensible est détectée.

Impact équipe
Workflow cassé, contournement par ChatGPT perso (« Shadow AI »)
Données envoyées
Aucune — requête refusée
Réponse LLM
Inexistante
Souveraineté FR
Selon le fournisseur

Approche B

Filtrer côté LLM

Modération native OpenAI/Anthropic

Compte sur le LLM lui-même pour refuser ou réécrire les passages sensibles.

Impact équipe
Réponses tronquées, refus arbitraires
Données envoyées
Toutes — la donnée a déjà quitté vos murs
Réponse LLM
Partielle ou hallucinée
Souveraineté FR
Aucune — règles côté éditeur US

→ Incidents documentés

Le risque n'est pas théorique. La CNIL sanctionne déjà.

Trois décisions récentes dessinent le périmètre du risque pour vos prompts LLM : pseudonymisation insuffisante, transfert illicite vers tiers US, entraînement sans base légale.

  1. Sept. 2024 — CNIL

    800 k€

    Cegedim Santé

    Données de santé issues de 25 000 cabinets transmises pseudonymisées mais ré-identifiables (date de naissance, antécédents, prescriptions). La CNIL a jugé qu'il s'agissait toujours de données de santé soumises à autorisation préalable.

    Délibération SAN-2024-013 →
  2. Déc. 2024 — Garante (IT)

    15 M€

    OpenAI

    Entraînement de ChatGPT sur les conversations utilisateurs sans base légale ni information. Le régulateur italien établit que les prompts envoyés à un LLM sont des données personnelles à part entière. Décision en appel.

    Provvedimento n. 755/2024 →
  3. Oct. 2022 — CNIL

    20 M€

    Clearview AI

    Collecte d'1 milliard de visages publics sans base légale, transfert vers un tiers US sans encadrement contractuel. Précédent majeur sur les transferts non autorisés (Art. 44-49 RGPD).

    Délibération CNIL →

Aucune sanction ne vise encore explicitement une fuite via prompt LLM. Le cadre légal existe (RGPD Art. 32, 44-49) — son application aux usages IA générative n'est qu'une question de temps.

§03 — Démo live

Tapez. Voyez. Le mapping s'autodétruit.

zonym.ai/sandbox · POST /v1/pseudonymize
200 caractères restants

Limité à 200 caractères, 5 requêtes par minute par IP. Aucune donnée n'est conservée côté serveur.

→ Lecture des documents

Vos PDF, scans et ordonnances. Lus 100 % en local.

Vos vrais documents arrivent rarement en texte tapé. Conclusions adverses scannées, ordonnances papier, dossiers patients numérisés, contrats PDF : Zonym sait les lire — sans jamais les envoyer à un service tiers. Aucune image, aucun PDF, aucun pixel ne quitte votre infrastructure.

  1. [01]

    Lecture directe

    PDF déjà textuels. Extraction immédiate, zéro latence.

  2. [02]

    Restitution structure

    PDF scannés sans couche texte. Mise en page reconstruite localement.

  3. [03]

    Lecture image

    Photos d'ordonnances, JPG, PNG. Reconnaissance entièrement locale.

100%

des documents traités localement, sans le moindre appel à un service externe.

0

image ou pixel transmis à un fournisseur cloud, RGPD ou non.

Le texte extrait est immédiatement passé au pipeline de pseudonymisation. Le fichier source n'est jamais conservé après traitement.

§04 — Souveraineté

« Les données brutes ne franchissent jamais la frontière. »

  1. §01.

    Mappings RAM uniquement

    Détruits après chaque réponse, jamais persistés sur disque.

  2. §02.

    Zéro log de contenu

    Aucun message journalisé — uniquement des métadonnées agrégées (nombre d'entités, durée).

  3. §03.

    Hébergé en France

    VPS OVH Gravelines. Aucune dépendance à un fournisseur cloud sous juridiction US.

  4. §04.

    Code auditable

    Architecture documentée et auditable sous NDA pour les clients Enterprise.

  5. §05.

    91 % parité testée

    722 PII / 90 documents juridique-médical-assurance, 0 fuite.

§05 — Intégration

Vous changez le base_url. C'est tout.

# Drop-in OpenAI replacement
curl https://votre-tenant.zonym.ai/v1/chat/completions \
  -H "Authorization: Bearer sk-zonym-..." \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-6",
    "messages": [{"role": "user", "content": "Mme DURAND..."}]
  }'
from openai import OpenAI

client = OpenAI(
    base_url="https://votre-tenant.zonym.ai/v1",
    api_key="sk-zonym-...",
)
# Le reste de votre code ne change pas.
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://votre-tenant.zonym.ai/v1",
  apiKey: process.env.ZONYM_API_KEY,
});
// Le reste de votre code ne change pas.

Compatible OpenAI · Anthropic · Mistral · Cohere

§06 — Cas d'usage

Déjà en production. Anonymisés ici.

Cabinet d'avocats

1108 entités sur 6 documents — 0 fuite

Pseudonymisation temps réel des conclusions, courriers et conventions d'honoraires. Compatible avec leur stack LLM existante, intégrée en moins d'une journée. Aucun changement côté postes utilisateurs.

Voir le cas d'usage →

Démonstrateur médical

100% du pipeline OCR exécuté en local, hors juridiction US

Pipeline OCR + pseudonymisation médical (DDN+âge, RPPS, ADELI, FINESS) sur dossiers patients numérisés non-anonymes (5 dossiers CHU, 200 539 chars).

Voir le cas d'usage →

§07 — Formules

Trois portes d'entrée. Une seule conversation.

Sandbox

test.zonym.ai

  • Sandbox publique
  • Idéal pour évaluer
  • Aucun mapping conservé
Tester →

Enterprise

VM dédiée OVH

  • VM Proxmox dédiée
  • ZDR contractualisé
  • SSO / Authentik
  • Reconnaisseurs custom
  • SLA 99.9 %
Nous contacter →

§08 — Questions fréquentes

Dix questions, dix réponses directes.

C'est quoi un DLP, et pourquoi ça ne suffit plus avec ChatGPT ?

Un Data Loss Prevention (DLP) est un outil qui scanne emails, fichiers et uploads pour bloquer ce qui contient des données sensibles (Microsoft Purview, Symantec…). Côté ChatGPT, il refuse l'envoi quand il détecte un nom ou un NIR. Résultat : votre équipe se retrouve bloquée et contourne avec ChatGPT perso depuis son téléphone — c'est le « Shadow AI ». Zonym fait l'inverse : laisse passer la requête mais remplace les données sensibles par des codes anonymes avant l'envoi.

Pourquoi ne pas faire l'anonymisation directement dans mon application ?

Vous pouvez. Mais cela signifie : maintenir vous-même les détecteurs métier (NIR, RPPS, ORIAS, IBAN…), suivre l'évolution des modèles de langue, gérer le streaming token-par-token, garantir la destruction du mapping post-réponse, et produire la documentation auditable. Zonym mutualise tout cela. Vous gardez votre code applicatif, vous changez juste le base_url.

Mon entreprise risque vraiment quelque chose ? Aucune amende n'a encore visé les LLM.

Pas encore spécifiquement. Mais le cadre légal existe déjà : RGPD Art. 32 (sécurité du traitement), Art. 44-49 (transferts vers pays tiers), plafond d'amende à 20 M€ ou 4 % du CA mondial. La CNIL a déjà sanctionné Cegedim Santé (800 k€, 2024) pour pseudonymisation insuffisante et Clearview AI (20 M€, 2022) pour transfert illicite vers les US. L'application aux usages IA générative est imminente.

Comment êtes-vous différents d'un VPN ou d'un proxy classique ?

Le VPN protège le canal réseau ; Zonym protège le contenu : il transforme les données sensibles avant qu'elles ne quittent vos murs. Le LLM ne voit jamais les vraies valeurs, seulement des codes anonymes.

Que se passe-t-il si un placeholder est halluciné par le LLM ?

Tout placeholder absent du mapping est remplacé par [donnée] à la dépseudonymisation. Pas de fuite — un placeholder inventé ne révèle aucune donnée réelle.

Le streaming dégrade-t-il la latence ?

Mode progressif : émission token-par-token avec retenue minimale (un seul tag incomplet bufferisé en RAM). Surcoût mesuré ~5-15 ms par requête.

Quelles données êtes-vous capables de détecter ?

19 types par défaut couvrant identités, dates de naissance, adresses, numéros de sécurité sociale et professionnels (RPPS, ADELI, ORIAS), établissements de santé, IBAN, références de contrats, etc. Détecteurs personnalisés possibles en formule Enterprise pour les besoins métiers spécifiques.

Et mes documents reçus en PDF ou en photo (jugements, ordonnances, contrats scannés) ?

Zonym sait les lire. La totalité du pipeline OCR s'exécute en local sur votre infrastructure : aucun document, aucune image, aucun pixel n'est transmis à un service externe. Le texte extrait passe immédiatement au pipeline de pseudonymisation, et le fichier source n'est jamais conservé après traitement.

Puis-je auditer la solution ?

Oui. Architecture documentée et auditée par tiers de confiance, accessible sous NDA pour les clients Enterprise. Les garanties techniques (mappings RAM, zéro log, hébergement FR) sont contractualisées dans le DPA.

Est-ce compatible avec mon SDK actuel (LangChain, LlamaIndex, Vercel AI SDK) ?

Oui — Zonym expose une API OpenAI-compatible. Vous changez le base_url de votre client OpenAI / Anthropic. Le reste de votre code ne change pas.

« Vous avez un POC.
Vous voulez le mettre en prod.
Mais les PII vous bloquent. »

Mettons-le en route ensemble. 30 minutes au téléphone, on vous montre l'intégration.