Intelligence Artificielle au Travail en 2026 : Droits des Salariés, Obligations des Employeurs et Risques Juridiques
IA au travail en 2026 : licencié suite à usage ChatGPT ? Surveillé ? Discriminé ? Vos recours juridiques. RGPD, AI Act 2026. Avocat droit travail à Paris 17.
VIE AU BUREAU & TÉLÉTRAVAILSANTÉ ET SÉCURITÉ AU TRAVAIL
2/12/202620 min lire
L'intelligence artificielle (IA) s'installe massivement dans nos habitudes (ChatGPT, Gemini,...) et le monde du travail n'y échappe pas : recrutement algorithmique, évaluation automatisée des performances, surveillance comportementale, génération de contenus professionnels... Ces outils promettent gains de productivité et optimisation, mais soulèvent des questions juridiques inédites : Quels sont les droits des salariés face à l'IA ? Quelles obligations pèsent sur les employeurs ? Quels risques en cas de non-conformité ?
Au Cabinet Lhumen, nous accompagnons salariés et employeurs dans ces nouvelles problématiques. Entre RGPD, Code du travail, jurisprudence sociale et récent AI Act européen, le cadre juridique se structure progressivement et reste à l'épreuve des normes existantes :
I. Cadre général : l'IA comme outil au service de l'humain
1. L'IA ne se substitue pas au pouvoir de direction
L'utilisation de l'intelligence artificielle dans la relation de travail salariée n'échappe pas aux règles du droit du travail français (respect des libertés fondamentales, non-discrimination,...). L'IA doit rester un outil au service de l'activité humaine : elle ne se substitue ni au pouvoir de direction de l'employeur ni à sa responsabilité managériale et décisionnelle.
2. L'obligation de sécurité de l'employeur (article L. 4121-1 du Code du travail)
L'article L. 4121-1 du Code du travail impose à l'employeur de prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs, au moyen d'actions de prévention, d'information, de formation et de mise en place d'une organisation et de moyens adaptés.
Application aux systèmes d'IA :
Tout déploiement de systèmes d'IA (notamment de gestion algorithmique, de contrôle ou de décision RH) doit faire l'objet d'une évaluation spécifique des risques pour la santé et la sécurité des salariés.
Exonération de responsabilité :
La jurisprudence considère qu'un employeur ne méconnaît pas son obligation de sécurité s'il justifie avoir pris toutes les mesures de prévention, d'information, de formation et d'organisation prévues par les articles L. 4121-1 et L. 4121-2.
Conséquences pratiques :
L'employeur doit donc :
Intégrer l'IA dans le Document Unique d'Évaluation des Risques (DUER)
Mettre en place des formations spécifiques à l'utilisation de l'IA
Formaliser des procédures de signalement des incidents liés à l'IA
Documenter l'ensemble de ces mesures (traçabilité des évaluations de risques, procédures, formations)
II. Champs d'usage de l'IA dans l'entreprise
1. Usages autorisés sous conditions
Les applications de l'intelligence artificielle sont multiples et peuvent notamment recouvrir, sous réserve du respect du cadre juridique :
✅ L'aide au recrutement (analyse de candidatures, préparation d'entretiens)
✅ L'organisation et la planification du travail (répartition de tâches, optimisation de flux)
✅ L'aide à la rédaction, à la traduction, à la production de contenus ou de documents professionnels
✅ L'évaluation de la performance, sous réserve d'un contrôle humain effectif et d'une prise en compte des situations particulières protégées (par exemple arrêt maladie, grossesse, statut de salarié protégé)
✅ La sécurité des personnes et des biens, lorsque l'IA est intégrée à des dispositifs de sûreté (vidéoprotection, détection d'anomalies), dans le respect du RGPD
2. Obligation d'information et de consultation préalables
Principe essentiel :
Tout nouveau cas d'usage significatif ou toute évolution substantielle d'un usage existant doit faire l'objet d'une information préalable des salariés et, le cas échéant, d'une information-consultation du Comité Social et Économique (voir infra).
III. Encadrement du pouvoir de contrôle par l'IA : proportionnalité et transparence
1. Le principe de proportionnalité (article L. 1121-1 du Code du travail)
L'article L. 1121-1 du Code du travail dispose que nul ne peut apporter aux droits des personnes et aux libertés individuelles et collectives des restrictions qui ne seraient pas justifiées par la nature de la tâche à accomplir ni proportionnées au but recherché.
Le pouvoir de contrôle de l'employeur, y compris lorsqu'il est exercé au moyen de l'IA, découle du lien de subordination mais doit respecter ce principe de proportionnalité.
Jurisprudence applicable :
La Cour de cassation a jugé que des enregistrements issus d'un dispositif de surveillance attentatoire à la vie personnelle du salarié et disproportionné au but de sécurité allégué par l'employeur ne sont pas opposables au salarié (Cass. soc., 23 juin 2021, n° 19-13.856).
2. Conditions de mise en œuvre des systèmes d'IA de surveillance
Les systèmes d'IA utilisés pour la surveillance ou le contrôle de l'activité (capteurs, suivi informatique, analyse des communications, suivi de productivité, management algorithmique) ne peuvent être mis en œuvre que si :
Leur finalité est déterminée, explicite et légitime ;
Les données collectées sont adéquates, pertinentes et limitées à ce qui est nécessaire au regard de cette finalité ;
Les traitements sont loyaux et transparents à l'égard des salariés ;
Les durées de conservation sont limitées et justifiées.
⚠️ Interdiction :
Les pratiques de surveillance permanente, massive ou disproportionnée susceptibles de générer une « subordination algorithmique » ou une atteinte excessive à l'autonomie et à la vie privée des salariés sont interdites.
Il convient aussi d'agencer ces outils d'IA avec le droit à la déconnexion, notion déjà abordée dans notre article sur la fin du télétravail et les droits des salariés.
3. Information préalable obligatoire des salariés
L'article L. 1222-4 dispose qu'aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n'a pas été porté préalablement à sa connaissance.
L'article L. 2312-38 impose que le CSE soit informé de la mise en œuvre de moyens ou techniques permettant un contrôle de l'activité des salariés et des traitements automatisés de gestion du personnel, avant leur introduction dans l'entreprise.
Conséquence juridique majeure :
La doctrine souligne que la Cour de cassation affirme de longue date qu'un logiciel de surveillance mis en place sans consultation préalable des représentants du personnel ne peut servir de base à une sanction disciplinaire. Cette solution est transposable aux systèmes d'IA de management algorithmique, de suivi en temps réel et de sanction automatique.
4. Jurisprudences récentes sur les traitements de données et la vidéosurveillance
Cass. soc., 22 janvier 2025, n° 22-15.793 ; Cass. soc., 26 février 2025, n° 22-24.474 ; Cass. soc., 21 mai 2025, n° 22-19.925 ; Cass. soc., 9 avril 2025, n° 23-13.159
Ces décisions récentes reconnaissent que :
L'exploitation de données personnelles issues de logiciels ou de vidéosurveillance sans information préalable des salariés porte atteinte à la vie privée et constitue un procédé déloyal ;
Tout dispositif de vidéoprotection ou de journalisation est un traitement de données au sens de l'article 4 du RGPD, soumis aux obligations des articles 5, 6, 13 et 14 ;
La preuve issue d'un traitement effectué à une autre fin que celle initialement prévue est illicite (interdiction de détournement de finalité).
Application aux systèmes d'IA :
Par analogie, tout système d'IA de scoring, de suivi des performances, de détection d'« anomalies » de comportement doit respecter :
La loyauté de la collecte (information préalable, finalités déterminées) ;
L'interdiction de détournement de finalité (interdiction d'utiliser à des fins disciplinaires des données collectées pour d'autres finalités, sauf nouvelle base légale et information).
5. Droit au respect de la vie privée, même au travail
La Cour de cassation a affirmé dans un arrêt fondateur (Cass. soc., 2 octobre 2001, n° 99-42.942) que le salarié a droit, même au temps et au lieu de travail, au respect de l'intimité de sa vie privée, notamment pour ses communications.
Application aux systèmes d'IA :
Les algorithmes qui analysent l'ensemble des flux de communication (courriels, messageries, etc.) doivent être conçus et paramétrés pour limiter autant que possible la lecture automatisée de contenus relevant de la sphère privée, et prévoir des filtres/procédures garantissant ce droit.
Principe de « cloisonnement » : Non-analyse des espaces identifiés comme personnels (messages ou fichiers explicitement marqués comme tels).
6. Preuve illicite et « droit à la preuve » : mise en balance
La Cour de cassation opère un contrôle de proportionnalité entre :
Le droit à la preuve de l'employeur (démontrer une faute)
Les droits fondamentaux du salarié (vie privée, protection des données)
Le principe posé est qu'une preuve recueillie de manière déloyale ou disproportionnée est irrecevable, sauf si son usage est strictement indispensable et proportionné à la gravité du litige (Cass. Soc., 14 février 2024, n°22-23.073).
Conséquence pour l'IA :
Les données obtenues par IA sans respect des règles du RGPD (information préalable, finalité déterminée, proportionnalité) sont présumées illicites, sauf justification exceptionnelle.
IV. Interdiction des décisions 100% automatisées
1. Principe général
L'article 22 du RGPD pose le principe selon lequel aucune personne ne peut faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l'affectant de manière significative.
Ce principe consacre le droit de ne pas être soumis à une décision algorithmique sans intervention humaine.
2. Portée en droit du travail
Sont concernées toutes les décisions ayant un impact significatif sur les droits et obligations du salarié, notamment :
❌ Recrutement (sélection de candidats)
❌ Promotion
❌ Rémunération (calcul automatique de primes, modulation de salaire ; voir notre article Mon employeur peut-il modifier mon salaire sans mon accord ?)
❌ Attribution de tâches, horaires, affectations (lorsque ces décisions impactent significativement les droits)
❌ Évaluation de performance et notation
❌ Sanction disciplinaire
❌ Licenciement
Exception :
Une décision automatisée n'est autorisée que si elle est :
Nécessaire à la conclusion ou à l'exécution d'un contrat ;
Autorisée par le droit de l'UE ou de l'État membre ;
Fondée sur le consentement explicite de la personne (rare en droit du travail du fait du déséquilibre de pouvoir).
Dans tous les cas, des mesures appropriées doivent être mises en place pour garantir les droits et libertés de la personne concernée, notamment le droit d'obtenir une intervention humaine, d'exprimer son point de vue et de contester la décision.
3. L'obligation de « contrôle humain effectif » (AI Act)
L'AI Act (article 14) impose que les systèmes d'IA à haut risque (dont ceux utilisés en matière d'emploi) soient conçus de manière à permettre un contrôle humain effectif pendant leur utilisation.
Le « Contrôle humain effectif » signifie :
✅ Une intervention humaine dans le processus décisionnel
✅ La possibilité de ne pas suivre la recommandation de l'IA
✅ La possibilité de suspendre ou désactiver le système si nécessaire
✅ Une formation adéquate des personnes en charge du contrôle
⚠️ Interdiction :
Le simple « clic de validation » d'une décision entièrement préparée par l'IA ne constitue pas un contrôle humain effectif si la personne ne dispose ni du temps, ni des moyens, ni de la formation pour exercer un véritable pouvoir d'appréciation.
4.Hypothèse de décisions mixtes (humain + IA)
Le fait qu'une décision soit formellement prise par un humain ne suffit pas si celui-ci ne fait qu'entériner mécaniquement le résultat de l'algorithme.
Critères d'analyse :
L'humain dispose-t-il d'une marge d'appréciation réelle ?
A-t-il accès aux critères et au raisonnement de l'algorithme ?
A-t-il la formation et le temps nécessaires pour exercer un jugement critique ?
Peut-il s'écarter de la recommandation de l'IA ?
Si la réponse est négative, la décision sera requalifiée en décision 100% automatisée, donc illicite.
V. Recrutement par IA : entre efficacité et risques juridiques
1. L'IA dans le recrutement : de quoi parle-t-on ?
Usages courants de l'IA en recrutement :
✅ Tri automatisé de CV : Algorithmes analysant mots-clés, parcours, diplômes
✅ Analyse de vidéos d'entretien : IA détectant ton de voix, micro-expressions, vocabulaire
✅ Tests de personnalité algorithmiques : Évaluation automatisée des soft skills
✅ Scoring prédictif : Notation de la probabilité de réussite du candidat dans le poste
✅ Chatbots de présélection : Conversations automatisées pour filtrer les candidatures
La question clé : Ces pratiques sont-elles légales ?
Réponse : OUI, mais sous un encadrement juridique strict.
2. Interdiction absolue des discriminations algorithmiques
Un algorithme de recrutement qui produit des effets discriminatoires est prohibé, même si la discrimination n'était pas intentionnelle (discrimination indirecte) en vertu de l'article L.1132-1 du code du travail.
Exemple emblématique et concret : l'algorithme de recrutement d'Amazon
En 2018, Amazon a dû abandonner son outil de recrutement par IA. L'algorithme, entraîné sur 10 ans de CV majoritairement masculins, avait pour conséquence de discriminer systématiquement les femmes.
Un algorithme n'est pas neutre par nature, ses biais reflètent les données sur lesquelles il a été entraîné.
En cas de discrimination, l'entreprise peut s'exposer à des sanctions pénales (article 225-2 du code pénal) :
⚠️ Jusqu'à 3 ans de prison ;
⚠️ 45 000 € d'amende.
L'employeur est pénalement responsable des discriminations produites par les outils d'IA qu'il déploie, même s'il n'a pas conçu l'algorithme lui-même.
3. Transparence et droit à l'explication
A) Obligation d'information sur l'existence de l'IA
Principe : Les candidats ont le droit de savoir si une IA intervient dans le processus de recrutement.
L'employeur doit donc informer les candidats :
✅ De l'existence d'un système d'IA dans le processus
✅ Des critères utilisés par l'algorithme
✅ De la logique sous-jacente de la décision
Absence d'information = procédé déloyal (RGPD + Code du travail)
B) Droit d'accès aux données (article 15 du RGPD)
Le candidat peut demander à l'employeur de lui fournir :
Les données personnelles traitées le concernant ;
Les finalités du traitement ;
La logique de l'algorithme ;
Les conséquences de ce traitement pour lui.
Délai de réponse de l'employeur : 1 mois
Sanction en cas de refus : Amende RGPD (jusqu'à 20 millions d'euros ou 4% du CA mondial)
C) Droit à l'explication renforcé (articles 13 et 86 de l'AI Act)
L'AI Act européen prévoit que pour les systèmes d'IA à haut risque (dont le recrutement), l'employeur doit fournir des explications claires et compréhensibles sur :
✅ Le rôle du système dans le processus décisionnel ;
✅ Les critères principaux ayant conduit à la décision ;
✅ Les données d'entrée pertinentes utilisées par le système.
VI. Consultation obligatoire du CSE : une obligation stricte et sanctionnée
1. Pourquoi le CSE doit-il être consulté ?
L'introduction de tout système d'IA impactant les conditions de travail, l'emploi ou la gestion du personnel constitue une nouvelle technologie au sens du Code du travail.
En vertu de l'article L. 2312-8 du Code du travail, le CSE est consulté sur :
Les questions intéressant l'organisation, la gestion et la marche générale de l'entreprise ;
Notamment sur les décisions relatives à l'organisation du travail.
Le CSE est aussi informé et consulté, préalablement à leur introduction dans l'entreprise, (article L.2312-38 du code du travail) sur :
Les moyens ou techniques permettant un contrôle de l'activité des salariés ;
Les traitements automatisés de gestion du personnel.
2. Comment doit se dérouler la consultation ?
A) Consultation préalable au déploiement
La consultation du CSE doit intervenir préalablement à la mise en œuvre pour permettre au CSE de formuler un avis motivé (article L.2312-14 du code du travail).
B) Information complète et précise à fournir au CSE
L'employeur doit fournir au CSE :
✅ Une description détaillée du système d'IA envisagé
✅ Les finalités poursuivies
✅ Les données traitées (catégories, sources, durée de conservation)
✅ Les impacts prévisibles sur :
Les conditions de travail
L'emploi (suppressions, créations, transformations de postes)
La santé et la sécurité
Les risques psychosociaux
La qualification et la formation
✅ Les mesures d'accompagnement prévues :
Formations
Prévention des risques
Évolutions professionnelles
C) Délais de consultation
Le CSE dispose d'un délai de 1 mois à compter de la communication des informations par l'employeur, porté à 2 mois en cas de recours à un expert agréé (articles L.2312-15 et L.2315-94 du code du travail).
3. Sanctions du défaut de consultation
Le défaut de consultation s'analyse en un délit d'entrave pénalement sanctionné par une peine de prison et une amende financière (article L.2317-1 du code du travail).
En outre, le juge des référés peut ordonner la suspension immédiate du déploiement de l'IA en cas de défaut total, insuffisance ou tardiveté de consultation du CSE, ou en raison d'informations transmises incomplètes ou trompeuses (article 835 du code de procédure civile).
Enfin, toute sanction ou décision fondée sur les données du système d'IA n'ayant pas été soumis au CSE pourrait être annulée.
4. Les 7 droits des salariés sur leurs données (chapitre III du RGPD)
Les salariés disposent des droits suivants, qu'ils peuvent exercer à tout moment :
Important : Ces droits s'exercent auprès du responsable de traitement (l'employeur) ou du DPO (Délégué à la Protection des Données).
5. Obligations de l'employeur : DPO, registre, AIPD
A) Désignation d'un DPO (Délégué à la Protection des Données)
Article 37 du RGPD :
La désignation d'un DPO est obligatoire lorsque les activités de base du responsable de traitement consistent en des opérations de traitement qui exigent un suivi régulier et systématique à grande échelle des personnes concernées.
Rôle du DPO :
Conseiller l'employeur sur la conformité RGPD
Superviser les AIPD
Intermédiaire avec la CNIL
Intermédiaire avec les salariés souhaitant exercer leurs droits
B) Tenue d'un registre des traitements (article 30)
L'employeur doit tenir un registre répertoriant tous les traitements de données, y compris ceux effectués par IA.
Contenu du registre (pour chaque traitement) :
Finalités du traitement
Catégories de données traitées
Catégories de destinataires
Durées de conservation
Mesures de sécurité mises en place
Sanction en cas d'absence de registre : Amende RGPD (jusqu'à 10 millions d'euros ou 2% du CA)
C) Analyse d'Impact relative à la Protection des Données (AIPD)
Article 35 du RGPD :
Une AIPD est obligatoire lorsqu'un traitement est susceptible d'engendrer un risque élevé pour les droits et libertés des personnes.
Exemples en matière d'IA nécessitant une AIPD :
✅ Évaluation systématique et approfondie d'aspects personnels (scoring, profilage)
✅ Traitement à grande échelle de données sensibles (santé, biométrie)
✅ Surveillance systématique à grande échelle (vidéosurveillance + IA de reconnaissance)
Contenu de l'AIPD :
Description du traitement et de ses finalités
Évaluation de la nécessité et de la proportionnalité
Évaluation des risques pour les droits et libertés
Mesures envisagées pour faire face aux risques
Qui réalise l'AIPD ? Le DPO (ou un consultant externe spécialisé).
D) Notification des violations de données (article 33)
En cas de violation de données (fuite, piratage, accès non autorisé), l'employeur doit :
✅ Notifier la CNIL dans les 72 heures
✅ Informer les personnes concernées (salariés) si le risque est élevé
Sanction en cas de non-notification : Amende RGPD (jusqu'à 10 millions d'euros ou 2% du CA)
6. Sanctions RGPD (article 83 RGPD)
La CNIL peut prononcer des amendes en fonction du type de violation :
technique : 10 millions d'euros ou 2% du CA mondial
substantielle : 20 millions d'euros ou 4% du CA mondial
Autres sanctions possibles :
Avertissement
Mise en demeure
Limitation temporaire ou définitive du traitement
Suspension des flux de données
Injonction de cesser le traitement
Exemple de sanction récente :
Amazon (2021) : 746 millions d'euros pour violations du RGPD (utilisation d'algorithmes de surveillance sans information préalable des salariés).
VII. AI Act : le nouveau cadre européen applicable dès 2026
1. Présentation générale du Règlement européen
Le Règlement (UE) 2024/1689 (« AI Act ») est le premier cadre juridique mondial contraignant sur l'intelligence artificielle.
Entré en vigueur au 1er août 2024, il produit ses effets de manière échelonnée :
Depuis le 2 février 2025, avec l'interdiction de certains systèmes ;
Depuis le 2 août 2025, avec un cadre pour les systèmes à usage général ;
Au 2 août 2026, l'introduction du cadre pour les systèmes à haut risque.
Les employeurs ont donc jusqu'au 2 août 2026 pour se mettre en conformité avec les obligations relatives aux systèmes à haut risque (recrutement, évaluation, surveillance).
2. Classification des systèmes d'IA : 4 niveaux de risque
L'AI Act classe les systèmes d'IA selon leur niveau de risque :
🔴 Niveau 1 : Systèmes INTERDITS (article 5 de l'IA Act)
Déjà applicable depuis le 2 février 2025.
❌ Systèmes manipulant le comportement des personnes de manière subliminale
❌ Exploitation de vulnérabilités (âge, handicap, situation économique)
❌ Notation sociale par les autorités publiques (« social scoring »)
❌ Identification biométrique en temps réel dans l'espace public (sauf exceptions strictes)
❌ Reconnaissance des émotions sur le lieu de travail (sauf raisons médicales ou de sécurité)
🟠 Niveau 2 : Systèmes à HAUT RISQUE (annexe III de l'IA Act)
Applicable à partir du 2 août 2026.
Sont notamment à haut risque les systèmes d'IA utilisés dans le domaine de l'emploi pour :
✅ Le recrutement (tri de candidatures, évaluation de candidats)
✅ Les décisions en matière de promotion, de licenciement, d'affectation de tâches
✅ Le suivi et l'évaluation des performances et du comportement des travailleurs
Conséquence : Ces systèmes sont soumis à des obligations strictes (détaillées ci-dessous).
🟡 Niveau 3 : Systèmes à RISQUE LIMITÉ (article 50 de l'IA Act)
Obligations de transparence : Information des utilisateurs sur l'usage de l'IA.
Exemple : Chatbots de support (obligation d'informer l'utilisateur qu'il parle à une IA).
🟢 Niveau 4 : Systèmes à RISQUE MINIMAL
Aucune obligation spécifique.
Exemples : Correcteur orthographique, traduction automatique, filtres anti-spam.
3. Obligations pour les systèmes à haut risque (chapitre III, section 2 de l'AI Act)
Les fournisseurs et déployeurs de systèmes d'IA à haut risque doivent respecter :
4. Obligations spécifiques des déployeurs de l'IA -employeurs- (article 26 IA Act)
De manière pragmatique, avant de déployer une IA de recrutement (système à haut risque), l'employeur devra :
Former les recruteurs à l'utilisation de l'outil ;
Informer les candidats de l'usage de l'IA ;
Mettre en place des procédures de contrôle humain ;
Surveiller régulièrement le système (détection de biais, erreurs).
5. Droit à l'explication renforcé (article 86)
Nouveauté majeure de l'AI Act :
Les personnes soumises à une décision prise sur la base d'un système d'IA à haut risque ont le droit d'obtenir du déployeur des explications claires et compréhensibles sur :
✅ Le rôle du système dans le processus décisionnel
✅ Les critères principaux ayant conduit à la décision
✅ Les données d'entrée pertinentes utilisées par le système
Différence avec le RGPD :
Le RGPD impose une information sur la "logique" de l'algorithme (article 15), mais l'AI Act va plus loin en exigeant des explications compréhensibles et individualisées.
6. Sanctions AI Act (article 99 AI Act)
Les États membres fixent des sanctions effectives, proportionnées et dissuasives ; qui s'ajoutent aux sanctions du RGPD.
VIII. Puis-je utiliser ChatGPT au travail ? Guide pratique pour les salariés
1. Principe général : autorisé sauf interdiction formelle
L'utilisation d'outils d'IA générative par les salariés pour leurs activités professionnelles est autorisée en principe, sous réserve du respect de certaines conditions.
AVANT d'utiliser ChatGPT ou une autre IA, consultez :
✅ Le règlement intérieur
✅ La charte informatique ou charte d'utilisation des outils numériques
✅ Les notes de service récentes
En cas d'interdiction formelle, l'usage de ChatGPT ou d'outils similaires pourrait s'analyser comme une faute disciplinaire (insubordination) pouvant justifier un licenciement.
L'usage est en principe autorisé, sous réserve du respect des obligations de confidentialité et de loyauté.
2. Règle d'or : JAMAIS de données sensibles ou confidentielles dans ChapGPT, Claude ou Gemini
En cas de transmission de :
Données confidentielles (secret d'affaires, informations stratégiques,...) ;
Données de clients ;
Données personnelles d'autres salariés ;
Documents couverts par une clause de confidentialité ;
Vous vous exposez à un licenciement, pouvant même caractériser une faute grave.
En effet, même si les serveurs (OpenAI, Google,...) de n'importe quelle IA externe prétendent garantir une confidentialité, en réalité, vous n'avez plus aucun contrôle sur les données que vous avez transmis.
3. Analogie jurisprudentielle
CA Paris, 23 février 2022, n° 19/07192 (Affaire Safran) :
Faits :
Un salarié a été licencié pour faute grave après avoir publié sur LinkedIn des images provenant de documents internes de l'entreprise (secrets d'affaires).
Décision :
La Cour d'appel a validé le licenciement, considérant que la transmission de données confidentielles à un tiers (même via un réseau social) constitue une violation de l'obligation de confidentialité.
Transposition à ChatGPT :
La transmission de données confidentielles à ChatGPT (ou tout autre outil d'IA externe) constitue une violation de l'obligation de confidentialité, caractérisant une faute grave justifiant un licenciement sans préavis ni indemnités. Consultez notre article sur Que faire si mon employeur me licencie ?
4. Recommandations pratiques avant d'utiliser ChatGPT (ou Gemini, Claude,...)
Avant d'utiliser ChatGPT ou toute IA pour votre travail :
☑️ Lire le règlement intérieur et la charte informatique
☑️ Vérifier qu'il n'existe pas d'interdiction formelle
☑️ Ne transmettre AUCUNE donnée confidentielle à l'IA externe
☑️ Privilégier des outils d'IA en interne (si l'entreprise en propose) avec garanties de confidentialité
☑️ Relire et vérifier tous les contenus générés par IA
☑️ Informer sa hiérarchie de l'usage de l'IA en cas de doute
☑️ Documenter l'utilisation (conserver une trace de ce qui a été généré par IA vs votre apport personnel)
Pour aller plus loin, vous pouvez consulter notre FAQ en fin article, ou réserver une consultation de 15 min ou un entretien d'1 heure.
IX. Risques psychosociaux liés à l'IA
De plus en plus d'études sociologiques et scientifiques pointent des effets de l'IA sur les conditions de travail :
Restriction de l'autonomie du salarié voire hypersurveillance ;
Perte de sens voire sentiment d'inutilité ;
Déresponsabilisation ;
Situation de pression et stress chronique ;
Isolement,...
Ces risques peuvent conduire au burn-out, comme nous l'avons détaillé dans notre guide sur le burn-out et le licenciement pour insuffisance professionnelle.
1. Obligations de prévention des risques psychosociaux (article L.4121-1 du code du travail)
L'introduction de l'intelligence artificielle ne doit pas conduire à :
❌ Une dégradation des conditions de travail
❌ Une intensification excessive du contrôle ou de la charge mentale
❌ Une atteinte à la santé physique ou psychique des salariés
Concrètement, avant tout déploiement d'un système d'IA, l'employeur doit :
✅ Évaluer les risques professionnels associés
✅ Mettre en place des mesures de prévention adaptées :
Formations
Possibilité de contestation des décisions algorithmiques
Maintien d'espaces d'autonomie
Suivi psychologique si nécessaire
✅ Intégrer ces risques dans le Document Unique d'Évaluation des Risques (DUER)
2. Limites de l'IA de détection de fragilité
Certaines entreprises utilisent l'IA pour détecter les salariés en situation de fragilité (fatigue, stress, risque de burn-out) via l'analyse de certaines données.
Dans un tel cadre, l'IA utilisée pour détecter des situation de fragilité au titre de l'objectif de prévention, ne saurait justifier :
❌ Des traitements excessifs ou intrusifs (ex : analyse systématique de tous les emails)
❌ Des décisions défavorables à l'égard des salariés concernés (ex : rétrogradation d'un salarié "détecté comme fragile")
L'IA peut être un outil d'alerte, mais jamais un outil de sanction.
X. Formation et dialogue social : des obligations renforcées
1. Obligation de formation des salariés et de leurs représentants (article L.6321-1 du code du travail)
L'employeur organise des actions de formation et d'information adaptées afin de permettre aux salariés et à leurs représentants de comprendre :
✅ Le fonctionnement général des systèmes d'IA utilisés
✅ Leurs finalités et limites
✅ Leurs impacts possibles sur l'organisation du travail et les métiers
✅ Les droits et garanties dont bénéficient les salariés
2. Contenu et modalités de la formation (article 4 de l'AI Act)
Pour les systèmes d'IA à haut risque, la formation doit être :
✅ Pratique : Exercices concrets, mises en situation
✅ Contextualisée : Adaptée au métier et au secteur
✅ Adaptée aux connaissances techniques des salariés (pas de jargon inaccessible)
Public concerné :
Salariés utilisateurs directs de l'IA
Managers
Équipes RH
Représentants du personnel (CSE)
3. Suivi régulier dans le dialogue social
Le déploiement de l'IA fait l'objet d'un suivi régulier dans le cadre du dialogue social :
Réunions du CSE (au moins une fois par an pour faire le point)
Négociations éventuelles sur la qualité de vie et les conditions de travail
Accords spécifiques sur l'IA (chartes d'usage, garanties collectives)
Conclusion : L'IA au travail, entre opportunités et vigilance juridique
L'intelligence artificielle transforme profondément le monde du travail, mais son déploiement ne peut s'effectuer au détriment des droits fondamentaux des salariés. Le cadre juridique français et européen va devoir continuer à enrichir une jurisprudence en pleine construction pour imposer des garde-fous stricts.
Ce qu'il faut retenir :
✅ L'IA doit rester un outil au service de l'humain, sans se substituer à la responsabilité managériale
✅ Aucune décision importante (recrutement, promotion, licenciement, sanction) ne peut être prise de manière 100% automatisée
✅ L'information et la consultation du CSE sont obligatoires avant tout déploiement significatif
✅ Le RGPD s'applique pleinement : finalités déterminées, minimisation des données, droits des salariés
✅ Les systèmes à haut risque (AI Act) imposent un contrôle humain effectif, une transparence renforcée et des formations adaptées
✅ Les salariés ont des droits : droit à l'explication, droit de contestation, protection contre les discriminations algorithmiques
✅ Les employeurs ont des obligations : évaluation des risques psychosociaux, formation, cybersécurité, documentation
Le Cabinet Lhumen vous accompagne dans tous les litiges et problématiques liés à l'intelligence artificielle au travail.

À propos
Contact
06.37.43.18.73
47, rue Lacroix - 75017 PARIS
Mentions légales / Politique de Confidentialité
