Mes associés peuvent-ils utiliser ChatGPT sur des contrats clients sans violer le secret professionnel ?
Trois scénarios qu'on voit en cabinet en 2025. Un collaborateur de troisième année qui colle dans ChatGPT le texte d'un NDA pour le reformuler avant signature. Un secrétaire général qui demande à Claude un résumé de convention de cession à présenter au comité d'associés. Un associé qui interroge Perplexity sur un arbitrage stratégique tiré d'une correspondance couverte par le secret. La question pour vous, associé gérant : est-ce que cela engage le cabinet, et jusqu'où ?
Le risque réel se joue sur trois niveaux
Saisine du Conseil de discipline
Article 2.2 du Règlement intérieur national, fondé sur la loi du 31 décembre 1971 article 4. Sanctions possibles : avertissement, blâme, interdiction temporaire, radiation.
Sanction CNIL
Jusqu'à 4 % du chiffre d'affaires annuel. Le Garante italien a sanctionné OpenAI à hauteur de 15 millions d'euros le 20 décembre 2024 (provvedimento n° 10085455).
Action du client
Responsabilité contractuelle et délictuelle si le préjudice est démontré. La couverture d'assurance professionnelle peut être contestée si la faute est qualifiée de manquement délibéré.
Le secret professionnel n'est pas une obligation parmi d'autres. Le RIN le qualifie en termes que peu d'autres règles déontologiques connaissent :
« Le secret professionnel de l'avocat est d'ordre public. Il est général, absolu et illimité dans le temps. »— Règlement intérieur national de la profession d'avocat, article 2.2
Le caractère d'ordre public signifie qu'il ne peut pas être levé par accord entre les parties. Le caractère absolu signifie qu'il ne souffre pas d'exception au cas par cas. Le caractère illimité dans le temps signifie qu'une fuite aujourd'hui peut être qualifiée comme un manquement dans cinq ans.
Ce que dit le Conseil national des barreaux
Le CNB a adopté en assemblée générale des 11 et 12 juillet 2024 un rapport et des recommandations sur l'usage de l'intelligence artificielle générative en matière de justice. La position est mesurée mais la ligne directrice est nette : un avocat reste personnellement responsable du contenu et des données qu'il soumet à un système d'IA, et la délégation contractuelle au fournisseur ne l'exonère pas de son obligation de moyens renforcée en matière de confidentialité.
En pratique, le CNB invite les cabinets à vérifier trois points avant tout usage professionnel : où sont hébergées les données traitées, qui peut techniquement y accéder, et si les requêtes sont réutilisées pour entraîner ultérieurement le modèle. Sur ces trois points, les outils grand public (ChatGPT, Claude, Perplexity en versions standard) ne fournissent pas de garantie suffisante au regard du secret professionnel.
Ce que dit la CNIL
La CNIL a publié en 2024 plusieurs fiches pratiques relatives à l'IA générative en milieu professionnel. Elle rappelle que l'usage d'un outil d'IA sur des données personnelles relève du RGPD, et que le responsable du traitement (le cabinet) doit pouvoir justifier d'une base légale, d'une analyse d'impact lorsque le traitement est susceptible d'engendrer un risque élevé, et d'un contrat de sous-traitance conforme à l'article 28.
La position de la CNIL converge avec celle du CNB : un DPA standard ne suffit pas dès lors que l'outil utilisé conserve une capacité technique d'accéder aux contenus traités. La garantie attendue est technique, pas seulement contractuelle.
Ce qui est interdit, ce qui est permis
- Coller un contrat client dans ChatGPT, Claude ou Perplexity grand public
- Demander un résumé de correspondances couvertes par le secret
- Faire reformuler une clause issue d'un dossier en cours
- Soumettre des conclusions adverses pour analyse stratégique
- Identifier nommément un client ou une opération réelle dans une requête
- Recherche jurisprudentielle sans référence aux faits du dossier
- Travail sur des données fictives ou totalement anonymisées
- Rédaction de contenu marketing, de billets de blog, de notes de doctrine
- Assistance à la rédaction de documents internes (RH, organisation)
- Synthèse de textes officiels accessibles publiquement
La réponse de VoltageGPU pour les cabinets
Pour répondre à la fois à l'exigence ordinale et à l'exigence RGPD, il faut une infrastructure d'IA qui combine quatre garanties. Aucune des trois n'est suffisante seule. Les quatre ensemble transforment l'usage de l'IA en mesure organisationnelle et technique appropriée au sens de l'article 32 du RGPD.
- 1Hébergement en Union européenneSociété française (VOLTAGE EI, SIREN 943 808 824), infrastructure UE, pas de transfert hors UE des données traitées.
- 2Contrat conforme à l'article 28 du RGPDDPA, registre des sous-traitants, engagements de confidentialité, droits d'audit. Disponible sur demande avant tout démarrage.
- 3Garantie technique d'isolation au niveau du processeurL'opérateur de l'infrastructure ne peut techniquement pas lire les requêtes ni les réponses. La mémoire du traitement est chiffrée par le processeur lui-même, en dehors du contrôle de l'opérateur.
- 4Rapport d'attestation cryptographique vérifiablePour chaque session, un rapport signé est produit. Il peut être vérifié contre les clés publiques du fabricant du processeur. C'est une preuve, pas une promesse contractuelle.
Voyez ce que ça donne sur un vrai document
Téléversez un contrat type, un NDA fictif ou un extrait anonymisé. L'agent Contract Analyst l'analyse dans une session isolée et vous renvoie le rapport d'attestation.
Analyser un contrat gratuitement — sans compte, sans carte bancaireVotre document n'est ni conservé, ni lu par notre équipe. Garanti par contrat et par l'architecture technique.
Cinq questions qui reviennent
Mes associés peuvent-ils utiliser ChatGPT en interne sans toucher aux dossiers clients ?
Oui, tant que les requêtes ne contiennent aucune information couverte par le secret professionnel : ni nom de client, ni clause issue d'un contrat réel, ni stratégie contentieuse, ni correspondance. Pour les notes de jurisprudence générales ou la rédaction de contenu marketing, l'usage est admis. Dès qu'un dossier client entre en jeu, l'outil grand public n'est plus l'environnement adéquat.
Quelles sanctions risque concrètement un cabinet qui aurait soumis des contrats clients à ChatGPT ?
Trois niveaux de risque cumulatifs. Disciplinaire : avertissement, blâme, interdiction temporaire d'exercer, voire radiation prononcée par le Conseil de discipline. RGPD : sanction de la CNIL pouvant atteindre 4 % du chiffre d'affaires annuel, comme l'a montré la décision du Garante italien à l'encontre d'OpenAI (provvedimento du 20 décembre 2024, sanction de 15 millions d'euros). Civile : action en responsabilité du client si une fuite est constatée et que le préjudice est démontré.
Le DPA d'OpenAI Enterprise ne suffit-il pas à couvrir le secret professionnel ?
Le DPA est un contrat. Il engage OpenAI à ne pas réutiliser les données pour entraîner ses modèles. Il ne supprime pas l'accès technique des équipes du fournisseur aux contenus traités. Or l'article 2.2 du Règlement intérieur national de la profession d'avocat n'autorise pas la divulgation à un tiers, fût-il lié par contrat. Le secret professionnel suppose que le tiers n'ait pas la capacité technique d'accéder aux données. Un DPA couvre le RGPD ; il ne couvre pas l'obligation déontologique propre à la profession.
Notre cabinet compte 5 avocats. Est-ce que cette obligation s'applique aussi à nous ?
Oui. Le secret professionnel ne dépend ni de la taille du cabinet, ni du chiffre d'affaires. La loi du 31 décembre 1971 et le RIN s'appliquent à tout avocat inscrit à un barreau français, qu'il exerce seul, en collaboration ou en structure de cinquante associés. Le risque pratique est même supérieur dans les petites structures : moins de procédures internes, moins de DPO, moins de revue documentaire des outils utilisés par les collaborateurs.
Comment justifier auprès du bâtonnier que nous utilisons une IA sur des dossiers clients ?
Trois éléments à présenter : (1) hébergement en Union européenne avec contrat conforme à l'article 28 du RGPD, (2) garantie technique d'isolation au niveau du processeur — l'opérateur de l'infrastructure ne peut pas lire les requêtes ni les réponses, (3) rapport d'attestation cryptographique vérifiable produit pour chaque session, qui démontre que la garantie technique est effective. Ces trois éléments transforment l'usage de l'IA en mesure organisationnelle et technique appropriée au sens de l'article 32 du RGPD.
- Loi n° 71-1130 du 31 décembre 1971, article 4 — secret professionnel de l'avocat
- Règlement intérieur national de la profession d'avocat, article 2.2
- CNB — Rapport et recommandations sur l'usage de l'intelligence artificielle générative en matière de justice, AG des 11 et 12 juillet 2024
- CNIL — Fiches pratiques sur l'IA générative en milieu professionnel, 2024
- Garante per la protezione dei dati personali — provvedimento du 20 décembre 2024 (n° 10085455), OpenAI, 15 M€
- Règlement (UE) 2016/679 (RGPD), articles 28 et 32