C'est quoi un DLP, et pourquoi ça ne suffit plus avec ChatGPT ?
Un Data Loss Prevention (DLP) est un outil qui scanne emails, fichiers et uploads pour bloquer ce qui contient des données sensibles (Microsoft Purview, Symantec…). Côté ChatGPT, il refuse l'envoi quand il détecte un nom ou un NIR. Résultat : votre équipe se retrouve bloquée et contourne avec ChatGPT perso depuis son téléphone — c'est le « Shadow AI ». Zonym fait l'inverse : laisse passer la requête mais remplace les données sensibles par des codes anonymes avant l'envoi.
Pourquoi ne pas faire l'anonymisation directement dans mon application ?
Vous pouvez. Mais cela signifie : maintenir vous-même les détecteurs métier (NIR, RPPS, ORIAS, IBAN…), suivre l'évolution des modèles de langue, gérer le streaming token-par-token, garantir la destruction du mapping post-réponse, et produire la documentation auditable. Zonym mutualise tout cela. Vous gardez votre code applicatif, vous changez juste le base_url.
Mon entreprise risque vraiment quelque chose ? Aucune amende n'a encore visé les LLM.
Pas encore spécifiquement. Mais le cadre légal existe déjà : RGPD Art. 32 (sécurité du traitement), Art. 44-49 (transferts vers pays tiers), plafond d'amende à 20 M€ ou 4 % du CA mondial. La CNIL a déjà sanctionné Cegedim Santé (800 k€, 2024) pour pseudonymisation insuffisante et Clearview AI (20 M€, 2022) pour transfert illicite vers les US. L'application aux usages IA générative est imminente.
Comment êtes-vous différents d'un VPN ou d'un proxy classique ?
Le VPN protège le canal réseau ; Zonym protège le contenu : il transforme les données sensibles avant qu'elles ne quittent vos murs. Le LLM ne voit jamais les vraies valeurs, seulement des codes anonymes.
Que se passe-t-il si un placeholder est halluciné par le LLM ?
Tout placeholder absent du mapping est remplacé par [donnée] à la dépseudonymisation. Pas de fuite — un placeholder inventé ne révèle aucune donnée réelle.
Le streaming dégrade-t-il la latence ?
Mode progressif : émission token-par-token avec retenue minimale (un seul tag incomplet bufferisé en RAM). Surcoût mesuré ~5-15 ms par requête.
Quelles données êtes-vous capables de détecter ?
19 types par défaut couvrant identités, dates de naissance, adresses, numéros de sécurité sociale et professionnels (RPPS, ADELI, ORIAS), établissements de santé, IBAN, références de contrats, etc. Détecteurs personnalisés possibles en formule Enterprise pour les besoins métiers spécifiques.
Et mes documents reçus en PDF ou en photo (jugements, ordonnances, contrats scannés) ?
Zonym sait les lire. La totalité du pipeline OCR s'exécute en local sur votre infrastructure : aucun document, aucune image, aucun pixel n'est transmis à un service externe. Le texte extrait passe immédiatement au pipeline de pseudonymisation, et le fichier source n'est jamais conservé après traitement.
Puis-je auditer la solution ?
Oui. Architecture documentée et auditée par tiers de confiance, accessible sous NDA pour les clients Enterprise. Les garanties techniques (mappings RAM, zéro log, hébergement FR) sont contractualisées dans le DPA.
Est-ce compatible avec mon SDK actuel (LangChain, LlamaIndex, Vercel AI SDK) ?
Oui — Zonym expose une API OpenAI-compatible. Vous changez le base_url de votre client OpenAI / Anthropic. Le reste de votre code ne change pas.