Organisations
IA Act et CSE : ce que les syndicats doivent exiger des directions avant août 2026

IA Act et CSE : ce que les syndicats doivent exiger des directions avant août 2026
Le compte à rebours a commencé. Depuis le 2 août 2025, le règlement européen sur l'intelligence artificielle — l'IA Act — est entré en vigueur. Et depuis février 2026, les obligations relatives aux systèmes d'IA à haut risque s'appliquent pleinement. Pourtant, dans la grande majorité des entreprises françaises, les représentants du personnel n'ont jamais été consultés sur le déploiement des outils d'IA. C'est une erreur — et potentiellement une illégalité.
Ce que l'IA Act impose réellement aux employeurs
L'article 4 de l'IA Act est explicite : tout fournisseur et tout déployeur de systèmes d'IA doit s'assurer que ses équipes disposent d'un niveau suffisant de "littératie en IA". En clair : former les salariés qui utilisent ou supervisent des outils d'intelligence artificielle n'est plus une option, c'est une obligation légale.
Mais ce que peu de directions communiquent à leurs CSE, c'est que cette obligation crée en miroir un droit de regard des représentants du personnel. Dès lors qu'un système d'IA est déployé dans l'entreprise — outil de recrutement automatisé, logiciel de gestion des plannings, assistant de supervision des performances — le CSE doit être informé et consulté. Ce n'est pas une interprétation militante du texte. C'est sa lecture juridique la plus rigoureuse.
Les trois droits que les CSE doivent exercer sans attendre
1. Le droit à la consultation préalable
Avant tout déploiement d'un système d'IA classé à haut risque — notamment dans les domaines RH, éducation, accès aux services essentiels — la direction a l'obligation d'informer les représentants du personnel. Un déploiement sans consultation préalable du CSE constitue un manquement aux obligations légales de l'employeur, susceptible de déclencher une procédure de délit d'entrave.
2. Le droit d'alerte en cas de non-conformité
Si une direction déploie un outil d'IA sans avoir fourni la documentation de conformité requise par l'IA Act (notamment la notice d'utilisation, les données d'entraînement utilisées, le niveau de risque du système), le CSE peut exercer son droit d'alerte économique et saisir un expert. Les élus ne sont pas là pour subir la transformation numérique : ils ont les moyens juridiques de l'encadrer.
3. Le droit à la formation financée sur le budget de fonctionnement
C'est peut-être le levier le plus sous-utilisé. La formation des élus CSE aux enjeux de l'IA Act est finançable sur le budget de fonctionnement du CSE, au même titre que toute formation nécessaire à l'exercice du mandat. Des organismes certifiés Qualiopi, comme Skillevos, proposent des formations spécifiquement conçues pour les représentants du personnel : comprendre les systèmes d'IA déployés, identifier les risques, poser les bonnes questions en négociation, et peser réellement dans les décisions de la direction.
Un élu formé est un élu qui négocie en position de force. Un élu qui ne comprend pas les outils d'IA qu'utilise sa direction est structurellement en position de faiblesse.
Août 2026 : la date butoir à ne pas manquer
À partir d'août 2026, les obligations de l'IA Act s'étendront aux systèmes d'IA à usage général — ce qui englobe des outils déjà massivement déployés en entreprise comme les assistants génératifs (ChatGPT, Copilot, Gemini...). Les directions qui n'auront pas anticipé la mise en conformité seront exposées à des sanctions. Et les CSE qui n'auront pas exigé d'être consultés auront manqué une fenêtre historique pour peser sur la gouvernance numérique de leur entreprise.
Ce que les syndicats peuvent faire dès maintenant
Trois actions concrètes à engager immédiatement :
Premièrement, demander à la direction un inventaire des outils d'IA déployés dans l'entreprise, avec leur classification de risque selon l'IA Act. Toute direction qui refuse de fournir cette information s'expose à une mise en demeure.
Deuxièmement, inscrire à l'ordre du jour du prochain CSE un point spécifique sur la conformité IA Act de l'entreprise. Ce n'est pas un sujet technique réservé à la DSI : c'est un sujet de conditions de travail, de droits des salariés et de transparence algorithmique.
Troisièmement, former les élus avant que les négociations ne s'engagent. Une formation de deux jours suffit pour comprendre les enjeux, identifier les systèmes à risque et construire une position syndicale solide face aux directions.
Conclusion
L'IA Act n'est pas un texte réservé aux juristes ou aux DSI. C'est le premier cadre légal européen qui reconnaît explicitement que l'intelligence artificielle transforme le travail — et qui donne aux représentants du personnel les outils pour agir. Reste à s'en saisir, avant qu'il ne soit trop tard.
L'auteur est fondateur de Skillevos, organisme de formation certifié Qualiopi spécialisé dans la formation IA des équipes et des représentants du personnel.