Votre employeur a annoncé le déploiement d'un outil IA qui va changer votre façon de travailler. A-t-il le droit de le faire sans vous demander votre avis ? Que se passe-t-il si vous refusez de l'utiliser ? Et si votre poste est surveillé par un algorithme, quelles garanties avez-vous ?
Le droit du travail français répond à ces questions — mais les textes sont dispersés entre le Code du travail, le Règlement Général sur la Protection des Données (RGPD) et l'AI Act européen. Ce guide rassemble les règles essentielles que tout salarié confronté à l'IA en entreprise devrait connaître.
L'obligation de formation : ce que dit l'article L.6321-1
L'article L.6321-1 du Code du travail impose à l'employeur d'assurer "l'adaptation des salariés à leur poste de travail" et de "veiller au maintien de leur capacité à occuper un emploi, au regard notamment de l'évolution des emplois, des technologies et des organisations."
Cette formulation est volontairement large. La jurisprudence de la Cour de cassation a précisé son application : lorsque l'employeur introduit une technologie nouvelle qui modifie substantiellement les conditions d'exercice du poste, il est tenu de proposer une formation adaptée avant ou concomitamment au déploiement — pas après.
Conséquences pratiques :
Si votre employeur déploie Microsoft Copilot, un CRM avec IA intégrée, ou tout autre outil qui change significativement votre manière de travailler, et qu'il ne vous propose aucune formation, il est en infraction avec l'article L.6321-1. Cette infraction peut fonder un manquement à l'obligation de sécurité ou justifier une prise d'acte de la rupture du contrat aux torts de l'employeur.
À retenir : La formation IA n'est pas un avantage que l'employeur peut accorder discrétionnairement — c'est une obligation légale dès lors que l'outil change le contenu du poste.
La consultation obligatoire du CSE avant tout déploiement IA
L'article L.2312-8 du Code du travail impose la consultation du Comité Social et Économique (CSE) pour toute introduction d'une nouvelle technologie affectant les conditions de travail, de santé, de sécurité ou les conditions d'emploi.
Le déploiement d'un système d'intelligence artificielle tombe systématiquement dans ce champ d'application. Le CSE doit être informé et consulté avant le déploiement, pas une fois que l'outil est en place.
Ce que cette consultation doit contenir :
- Description précise du système IA déployé
- Données collectées et traitées par le système
- Impact sur les conditions de travail et l'organisation
- Mesures d'accompagnement prévues (formation, redéploiement)
- Garanties de confidentialité et de non-discrimination
Ce qui se passe en cas d'absence de consultation : La jurisprudence est claire : plusieurs décisions de tribunaux de grande instance ont accordé des référés en suspension du déploiement d'outils numériques non soumis préalablement au CSE. Si votre entreprise a déployé un outil IA sans consultation préalable, le CSE peut saisir le tribunal judiciaire en référé pour exiger la suspension du déploiement et la mise en conformité.
Le cadre réglementaire européen sur l'IA a été simplifié en 2026, mais les obligations de consultation sociale restent intégralement en vigueur en droit français, et leur non-respect expose l'employeur à des sanctions.

L'AI Act européen 2026 : ce qui change concrètement pour les salariés français
Le Règlement européen sur l'intelligence artificielle — l'AI Act — est entré en application progressive depuis 2024, avec un calendrier d'obligations qui s'étend jusqu'en 2026. Pour les salariés, deux catégories d'applications IA sont particulièrement importantes.
Les systèmes IA "à haut risque" dans les ressources humaines
L'AI Act classe comme "à haut risque" les systèmes IA utilisés pour :
- Le recrutement et la sélection de candidats
- L'évaluation des performances et la promotion
- La gestion des tâches et la surveillance du comportement au travail
Pour ces systèmes, les employeurs (ou leurs fournisseurs IA) doivent respecter des obligations strictes :
| Obligation | Contenu | Sanction en cas de non-respect |
|---|---|---|
| Transparence | Informer les salariés de l'utilisation d'un système IA à haut risque | Amende jusqu'à 15 M€ ou 3 % du CA mondial |
| Supervision humaine | Toute décision significative doit être validée par un humain | Décision contestable en justice |
| Droit à l'explication | Tout salarié peut demander une explication de la décision automatisée | Recours auprès de la CNIL |
| Audit de conformité | Évaluation d'impact obligatoire avant déploiement | Suspension du système |
Le droit à l'explication : votre recours concret
Si vous êtes évalué négativement ou non sélectionné pour une promotion via un algorithme, vous avez le droit de demander à votre employeur une explication humaine de cette décision. L'AI Act interdit les décisions "entièrement automatisées" ayant un impact significatif sur un salarié sans intervention humaine.
Cette garantie complète celle de l'article 22 du RGPD, qui interdisait déjà les décisions purement automatisées en matière de droit du travail.
Surveillance algorithmique des salariés : où est la ligne rouge ?
La surveillance des salariés via des outils numériques est un sujet sensible que la jurisprudence française encadre depuis les années 1990. L'IA ne crée pas un régime juridique entièrement nouveau — elle amplifie des pratiques existantes et les rend plus puissantes, ce qui rend leur encadrement d'autant plus crucial.
Ce que l'employeur peut surveiller (sous conditions)
Un employeur peut légalement :
- Mesurer la productivité via des indicateurs quantitatifs (nombre de tickets traités, temps de réponse moyen) à condition d'en avoir informé les salariés et le CSE
- Utiliser des outils de suivi des activités sur les équipements professionnels fournis par l'entreprise
- Analyser les communications professionnelles à condition que la politique de surveillance soit consignée dans le règlement intérieur
Ce qui est interdit
Un employeur ne peut pas légalement :
- Surveiller les communications personnelles sur les appareils de l'entreprise (arrêt Nikon, Cour de cassation)
- Déployer un système de surveillance IA sans en informer le CSE et les salariés concernés
- Utiliser des données comportementales pour prendre des décisions discriminatoires sur des critères protégés (âge, sexe, origine, état de santé, opinions politiques)
- Mettre en place une surveillance biométrique (reconnaissance faciale, analyse de la voix) sans accord explicite et dérogation CNIL
Comment contester une surveillance abusive
Si vous suspectez être victime d'une surveillance algorithmique non déclarée :
- Demandez au CSE s'il a été consulté sur les outils de surveillance déployés dans l'entreprise
- Adressez une demande écrite à la DRH pour obtenir la liste des données personnelles collectées vous concernant (droit d'accès RGPD, article 15)
- Saisissez la CNIL via son portail en ligne si votre demande reste sans réponse ou si vous constatez des manquements
- Consultez un avocat en droit social si les données collectées ont servi à justifier une sanction ou une décision défavorable
Licenciement pour motif technologique : vos droits
La suppression d'un poste due à l'automatisation par IA peut constituer un motif économique de licenciement. Le Code du travail encadre strictement cette procédure pour protéger les salariés.
La procédure légale que l'employeur doit respecter
Pour un licenciement économique lié à une transformation technologique :
- Consultation préalable du CSE — obligatoire, faute de quoi le licenciement est irrégulier
- Recherche de reclassement interne — l'employeur doit documenter les tentatives de reclassement sur d'autres postes disponibles dans l'entreprise ou le groupe
- Formation préalable — si un reclassement est possible via adaptation des compétences, une offre de formation doit être proposée avant le licenciement
- Plan de sauvegarde de l'emploi (PSE) — obligatoire pour les entreprises de 50 salariés et plus qui procèdent à 10 licenciements économiques sur 30 jours
Jurisprudence récente : La Cour de cassation a confirmé en 2023 (Cass. soc., 1er mars 2023, n°21-21.741) qu'un licenciement pour motif technologique sans effort de reclassement sérieux et documenté est sans cause réelle et sérieuse, ouvrant droit à des indemnités.
"Si votre employeur vous parle de 'suppression de poste liée à la digitalisation', c'est un signal que vous devez vérifier immédiatement si la procédure est légale. Dans de nombreux cas, les salariés ne contestent pas parce qu'ils ne savent pas qu'ils en ont le droit." — Maître Sophie Larnaud, avocate en droit social à Lyon
FAQ : droit du travail et intelligence artificielle
Mon employeur peut-il m'imposer d'utiliser une IA sans mon accord ? Oui, dans le cadre de son pouvoir de direction, l'employeur peut imposer l'utilisation d'outils professionnels — y compris des outils IA. Mais il doit avoir consulté le CSE préalablement, vous informer de l'usage qui est fait des données collectées, et vous former si l'outil modifie substantiellement votre poste.
Que puis-je faire si l'IA m'a attribué une évaluation négative ? En vertu de l'article 22 du RGPD et de l'AI Act 2026, vous pouvez demander qu'un humain réexamine toute décision automatisée vous concernant. Adressez une demande écrite à votre RH. Si la décision était basée sur un critère discriminatoire (âge, sexe, origine), vous pouvez saisir le Défenseur des Droits.
Le CSE peut-il bloquer le déploiement d'une IA en entreprise ? Le CSE ne peut pas vétoer une décision de l'employeur, mais il peut obtenir un délai de consultation supplémentaire et, en cas de carence grave, saisir le tribunal judiciaire en référé pour suspendre le déploiement jusqu'à la tenue d'une consultation conforme.
La surveillance IA de mes e-mails professionnels est-elle légale ? La surveillance des communications professionnelles sur les équipements de l'entreprise est légale si elle est prévue dans le règlement intérieur, si elle est proportionnée, et si les salariés ont été informés. La surveillance des communications personnelles (même sur un appareil professionnel) reste interdite (arrêt Nikon).
Puis-je négocier un accord collectif sur l'IA dans mon entreprise ? Oui. Les partenaires sociaux peuvent conclure un accord d'entreprise encadrant l'usage des outils IA — conditions de déploiement, formation, garanties contre la surveillance abusive, engagement de non-licenciement pendant la période de transition. C'est une démarche proactive que des syndicats ont déjà engagée dans plusieurs grands groupes français.
Avertissement : Les informations présentes sur cette page sont fournies à titre informatif uniquement et ne constituent pas un conseil juridique. Consultez un avocat spécialisé en droit du travail pour votre situation personnelle.
Quand faire appel à un avocat en droit du travail ?
Les questions liées à l'IA en entreprise croisent trois domaines juridiques : le droit du travail, le droit des données personnelles (RGPD), et le droit européen (AI Act). Un avocat spécialisé en droit social connaît les trois.
Consultez un avocat dès lors que : votre poste est modifié sans formation ni consultation du CSE, vous faites l'objet d'une décision automatisée (licenciement, non-promotion, sanction) sans explication humaine, ou que vous suspectez une surveillance algorithmique non déclarée.
L'évolution rapide des modèles IA comme ceux d'Anthropic en 2026 accélère la transformation du marché du travail — ce qui rend d'autant plus urgente la connaissance de vos droits. Sur ExpertZoom, des avocats spécialisés en droit du travail et en droit numérique répondent en ligne 7j/7.







