Vos recruteurs utilisent ChatGPT pour les CV.
Voici ce que la loi européenne exige désormais.
La plupart des équipes RH en Europe utilisent déjà l'IA pour la présélection des candidats. Presque aucune d'entre elles ne sait que le faire sans garde-fous est devenu une violation de la loi depuis le 2 août 2026.
"Un recruteur ouvre ChatGPT, colle le CV complet d'un candidat et tape : « Cette personne correspond-elle au profil recherché ? » Le LLM répond avec une note et un résumé. Le recruteur passe au suivant. Aucune piste d'audit. Aucun contrôle des biais. Aucune validation humaine. À compter du 2 août 2026, il s'agit d'une violation de conformité passible de sanctions pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial."
Ce que fait votre équipe RH en ce moment
Ce sont les comportements spécifiques qui déclenchent l'exposition à l'Annexe III et au RGPD.
Téléchargement de CV sur des LLMs publics
Les CV complets des candidats — contenant des noms, des adresses, des diplômes et des antécédents professionnels — sont directement copiés dans ChatGPT, Gemini ou Claude. Ces données sont traitées par des serveurs externes.
Présélection générée par l'IA
Les recruteurs demandent aux LLMs de classer ou de filtrer les candidats. Lorsqu'une recommandation de l'IA influence qui passe un entretien, cela déclenche l'article 22 du RGPD : le droit de ne pas faire l'objet d'une prise de décision automatisée.
Pas de piste d'audit
L'article 12 de l'IA Act de l'UE exige un enregistrement documenté de chaque décision d'IA à haut risque. Les conversations ChatGPT sont éphémères.
Aucune documentation sur les biais
L'IA Act exige que les systèmes d'IA à haut risque démontrent qu'ils ne discriminent pas. Les LLM standards n'ont pas d'audit de biais intégré.
L'exposition juridique spécifique
Trois règles, toutes déclenchées en même temps.
Votre IA est classée « Haut Risque »
Toute IA utilisée pour la sélection de CV ou l'évaluation des performances est explicitement classée comme IA à haut risque. Cela déclenche un cadre de conformité obligatoire.
Droit à une décision humaine
Le traitement automatisé qui « affecte de manière significative » une personne exige une décision humaine comme autorité finale.
Vous devez avoir une piste d'audit
Chaque action d'une IA à haut risque doit être automatiquement consignée.
À quoi ressemble un processus RH IA conforme
Vous ne devez pas interdire l'IA. Vous devez la gouverner.
Classifiez vos outils
Si un outil touche aux données des candidats, il est Annexe III Catégorie 4 par défaut. Commencez par un inventaire.
Réaliser une AIPD
Une Analyse d'Impact sur la Protection des Données est exigée par la loi avant le déploiement.
Exiger des pistes d'audit
Le SDK de SupraWall intercepte les appels d'outils et écrit automatiquement des audits signés.
Validation humaine (HITL)
L'IA peut assister, l'humain doit décider. SupraWall achemine toutes les sorties RH vers un responsable.
Activer le modèle de conformité RH
Le modèle RH de SupraWall implémente ces contrôles en une seule importation.
Deux façons
Pour gérer cela.
Voie C-Suite
Pour les DRH et Directeurs des Ressources Humaines. Évaluation de 30 minutes.
Voie Technologique
Une importation. Annexe III + RGPD Article 22 configurés.