IA et données sensibles en entreprise : ce que dit le RGPD en 2026
La question revient en comité RGPD depuis dix-huit mois. Vos équipes veulent utiliser l'IA générative sur des données réelles. Votre DPO oppose l'article 9, l'AIPD, le DPA. Voici ce que le RGPD impose réellement quand on touche à des données sensibles, et comment le démontrer en cas de contrôle.
Le risque réel se joue sur trois niveaux
Sanction CNIL
Jusqu'à 4 % du chiffre d'affaires annuel. Pour les données sensibles (article 9), les autorités appliquent une sévérité renforcée. 15 M€ pour OpenAI au Garante italien le 20 décembre 2024.
Hébergement de données de santé
Pour les données de santé en France, certification HDS exigée. Pour les données financières, exigences ACPR/AMF. Pour les avocats, secret professionnel d'ordre public.
Fuite identifiée publiquement
Notification obligatoire à la CNIL sous 72 heures (article 33), notification aux personnes concernées si risque élevé (article 34). Médiatisation systématique des incidents IA depuis 2023.
Sur les données sensibles, ces trois niveaux ne s'additionnent pas — ils se multiplient. Une fuite sur un dossier de santé déclenche simultanément la sanction CNIL, la perte de la certification HDS, et un titre de presse. C'est cette combinaison qui rend le sujet non négociable pour les directions générales depuis 2024.
Le régime renforcé de l'article 9
L'article 9 du RGPD définit les catégories particulières de données — communément appelées « données sensibles » — qui font l'objet d'un régime juridique plus strict que les données personnelles ordinaires. Pour ces catégories, le traitement est interdit par principe, et n'est levé que par une base légale renforcée listée limitativement.
« Le traitement des données à caractère personnel qui révèle l'origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l'appartenance syndicale, ainsi que le traitement des données génétiques, des données biométriques aux fins d'identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l'orientation sexuelle d'une personne physique sont interdits. »— RGPD, article 9, paragraphe 1
La levée de l'interdiction repose sur des bases limitatives : consentement explicite, obligation découlant du droit du travail, sauvegarde des intérêts vitaux, défense en justice, motif d'intérêt public important, médecine préventive ou médecine du travail, santé publique, archives d'intérêt public ou recherche scientifique. En pratique, dans une entreprise, deux bases dominent : le consentement explicite (fragile, révocable) et l'obligation découlant du droit du travail (RH).
L'analyse d'impact (AIPD) : quand est-elle obligatoire ?
L'article 35 du RGPD impose une analyse d'impact relative à la protection des données (AIPD) lorsque le traitement est susceptible d'engendrer un risque élevé pour les droits et libertés des personnes physiques. La CNIL a publié une liste de neuf critères. Un traitement qui combine au moins deux de ces critères est présumé à risque élevé.
Parmi ces neuf critères : traitement à grande échelle, traitement de données sensibles, croisement de données, données concernant des personnes vulnérables, usage innovant ou application de nouvelles solutions technologiques, exclusion d'un droit ou d'un contrat. Un usage d'IA générative sur des données sensibles à grande échelle remplit ces critères dès la première ligne.
En pratique : un cabinet de cinq personnes qui utilise une IA confidentielle pour analyser ponctuellement des dossiers RH peut s'en dispenser sur le fondement d'une analyse de risque documentée. Une plateforme SaaS qui propose à ses dix mille utilisateurs d'analyser leurs données par IA n'a pas le choix : AIPD obligatoire. Le dimensionnement compte.
Ce qui est interdit, ce qui est permis sur données sensibles
- Soumettre un dossier de santé identifiable à un outil d'IA grand public
- Traiter des données biométriques d'identification sans base légale renforcée
- Croiser des données RH (arrêts maladie, restrictions médicales) avec une IA externe sans contrat article 28
- Transférer des données sensibles hors UE sans garantie suffisante (Schrems II)
- Lancer un usage à grande échelle sans AIPD préalable
- Usage sur données fictives ou jeux de données de test
- Traitement avec consentement explicite éclairé et révocable
- Usage interne sur infrastructure d'IA confidentielle UE avec contrat article 28
- Usage encadré par AIPD documentée et mesures techniques opposables
- Recherche scientifique avec garanties prévues à l'article 9.2.j
La réponse de VoltageGPU pour les traitements sensibles
Pour utiliser l'IA générative sur des données sensibles sans tomber sous le coup de l'article 9 ni d'une mise en cause RGPD, il faut une infrastructure qui combine quatre garanties. Les quatre ensemble forment une mesure technique et organisationnelle appropriée au sens de l'article 32, et sont versables au dossier d'AIPD.
- 1Hébergement en Union européenneSociété française (VOLTAGE EI, SIREN 943 808 824), infrastructure UE, pas de transfert hors UE des données traitées.
- 2Contrat conforme à l'article 28 du RGPDDPA, registre des sous-traitants, engagements de confidentialité, droits d'audit. Versable au dossier d'AIPD.
- 3Garantie technique d'isolation au niveau du processeurL'opérateur de l'infrastructure ne peut techniquement pas lire les requêtes ni les réponses. La mémoire du traitement est chiffrée par le processeur lui-même, en dehors du contrôle de l'opérateur.
- 4Rapport d'attestation cryptographique vérifiablePour chaque session, un rapport signé est produit. Il peut être vérifié contre les clés publiques du fabricant du processeur. C'est une preuve, pas une promesse contractuelle.
Voyez ce que ça donne sur un cas réel
Téléversez un document anonymisé ou fictif relevant de votre secteur. L'agent l'analyse dans une session isolée et vous renvoie le rapport d'attestation cryptographique versable à votre AIPD.
Tester gratuitement — sans compte, sans carte bancaireVos documents ne sont ni conservés, ni lus par notre équipe. Garanti par contrat et par l'architecture technique.
Cinq questions qui reviennent
Mon entreprise n'est pas dans la santé. Suis-je quand même concerné par les « données sensibles » ?
Oui, plus souvent qu'on ne le pense. L'article 9 du RGPD vise les données de santé, mais aussi les données biométriques utilisées à des fins d'identification, l'origine raciale ou ethnique, les opinions politiques, les convictions religieuses, l'appartenance syndicale, la vie sexuelle, l'orientation sexuelle, et les données génétiques. Une entreprise qui gère des dossiers RH (arrêts maladie, restrictions médicales), un cabinet d'avocats qui traite un dossier de discrimination, un assureur, une plateforme RH : tous traitent à un moment des données sensibles. La règle pratique : dès qu'un document mentionne directement ou indirectement la santé, l'origine ou les convictions d'une personne identifiable, vous êtes sur le terrain de l'article 9.
Faut-il faire une AIPD avant chaque usage d'IA générative ?
Non, pas avant chaque usage. L'AIPD (analyse d'impact relative à la protection des données, article 35 du RGPD) est obligatoire lorsque le traitement est susceptible d'engendrer un risque élevé pour les droits et libertés des personnes. La CNIL considère qu'un traitement est probablement à risque élevé dès qu'il combine au moins deux critères parmi neuf — par exemple, traitement de données sensibles + traitement à grande échelle + utilisation d'une technologie nouvelle. Un usage d'IA générative sur des données sensibles à grande échelle remplit ces critères. En pratique : un cabinet de 5 personnes qui utilise une IA confidentielle pour analyser ponctuellement des dossiers RH peut s'en dispenser sur le fondement d'une analyse de risque documentée. Une plateforme SaaS qui propose à ses 10 000 utilisateurs d'analyser leurs données par IA n'a pas le choix : AIPD obligatoire.
Quelle est la différence entre « confidentialité contractuelle » et « confidentialité technique » ?
La confidentialité contractuelle, c'est la promesse écrite : le DPA, l'engagement de non-réutilisation, le registre des sous-traitants. Elle vous protège a posteriori si le fournisseur viole sa parole — vous pouvez l'attaquer, demander des dommages, faire valoir une rupture. La confidentialité technique, c'est l'impossibilité physique pour le fournisseur d'accéder aux contenus, indépendamment de sa bonne volonté. Elle vous protège a priori : il ne peut pas violer un engagement qu'il est techniquement incapable d'enfreindre. Sur des données sensibles, la CNIL et l'EDPB raisonnent de plus en plus sur la combinaison des deux. Le contrat seul devient insuffisant. La technique seule, sans contrat, ne couvre pas le cadre RGPD. Les deux ensemble forment le standard exigible.
Mon DPO me demande une « base légale » pour utiliser l'IA. Que répondre ?
La base légale au sens de l'article 6 du RGPD est l'une des six justifications qui rendent un traitement licite. Pour les usages d'IA en entreprise, deux bases sont les plus fréquentes : (1) l'exécution d'un contrat avec la personne concernée — par exemple analyser le dossier d'un client pour lui rendre un service prévu au contrat ; (2) l'intérêt légitime de l'entreprise, sous réserve que cet intérêt l'emporte sur les droits et libertés des personnes concernées (test de mise en balance documenté). Le consentement reste possible mais fragile : il doit être libre, spécifique, éclairé, univoque, et révocable. Pour les données sensibles (article 9), la base légale doit être renforcée : consentement explicite, ou disposition légale spécifique, ou défense en justice, ou autres cas listés. C'est cette base légale renforcée qui rend les usages d'IA générative sur données sensibles plus difficiles à justifier sans cadre technique étanche.
Comment apporter la preuve, en cas de contrôle CNIL, qu'on a respecté le RGPD ?
La preuve s'organise sur trois niveaux, du moins fort au plus fort. Sur des données sensibles, les autorités convergent vers l'exigence du niveau 3 — preuve technique opposable. C'est exactement ce que produit notre infrastructure.
Le contrôleur (ou son expert) peut vérifier le niveau 3 contre les clés publiques du fabricant du processeur, sans dépendre du fournisseur ni de votre cabinet. C'est cette indépendance de la vérification qui fait la différence devant un régulateur.
- Règlement (UE) 2016/679 (RGPD), articles 6, 9, 28, 32, 33, 34, 35
- CNIL — Liste des traitements pour lesquels une AIPD est obligatoire (neuf critères)
- CNIL — Fiches pratiques sur l'IA générative en milieu professionnel, 2024
- Garante per la protezione dei dati personali — provvedimento du 20 décembre 2024 (n° 10085455), OpenAI, 15 M€
- EDPB — Lignes directrices sur l'intelligence artificielle générative et la protection des données
- Cour de justice de l'Union européenne — arrêt Schrems II du 16 juillet 2020 (C-311/18)
- Code de la santé publique, article L. 1110-4 — secret médical