Chine : licencier pour cause d’IA n’est pas une excuse légale

La Chine trace une ligne rouge face au remplacement du travail par l'IA

L’intelligence artificielle ne fait plus seulement bouger les lignes côté code, support client ou modération. Elle attaque maintenant un terrain plus sensible : le droit du travail. À Hangzhou, un tribunal vient de donner raison à un salarié licencié au motif que son poste « pouvait être remplacé par une IA ». La décision tombe au moment précis où des dizaines d’entreprises tech accélèrent le déploiement de modèles génératifs et d’agents pour absorber les tâches répétitives.

Cela ne veut pas dire que la Chine ferme la porte aux licenciements technologiques. La nuance compte. Une entreprise ne peut plus présenter l’arrivée de l’IA comme une force majeure imprévisible qui justifierait, à elle seule, une baisse de salaire ou une rupture de contrat. Dans le secteur tech, le message est limpide : automatiser est un choix d’entreprise, pas un accident. Et un choix d’entreprise ne se paie pas sur la fiche de paie du salarié.

L’affaire Zhou : entraîner la machine qui prend ta place

Zhou, 35 ans, contrôleur qualité chez une société tech de Hangzhou, examinait les interactions entre utilisateurs et modèles d’IA. Il vérifiait la qualité des réponses, repérait les erreurs et détectait les contenus contraires aux règles internes ou à la loi. Du travail humain, classique, indispensable pour calibrer un produit basé sur du génératif.

L’employeur lui annonce un jour que son projet est « affecté par l’évolution de l’IA ». Proposition : changer de poste, à un niveau inférieur, avec passage de 25 000 à 15 000 yuans par mois (soit –40 %). Refus de Zhou. L’entreprise rompt le contrat. S’ensuit un parcours arbitrage → première instance → appel. À chaque étape, le salarié obtient gain de cause.

Verdict final : licenciement illégal et indemnité de plus de 260 000 yuans à verser. Le point juridique central tient en une phrase. La société a essayé de qualifier l’automatisation de « modification substantielle des circonstances objectives » empêchant le maintien du contrat. Les juges n’ont pas suivi.

Le raisonnement vaut pour toute boîte qui déploie de l’IA en interne. Brancher un modèle pour gagner en productivité, réduire les coûts ou couvrir une partie d’un poste n’a rien d’une catastrophe naturelle ni d’une réforme imposée d’en haut. C’est une décision stratégique. Légitime, parfois nécessaire pour rester dans la course, mais pas un blanc-seing pour effacer un poste sans contreparties.

Quand l’humain forme son propre remplaçant

L’IA s’installe désormais dans des processus jusque-là pilotés par des équipes : revue de données, modération de contenu, support technique de niveau 1, classification de tickets, génération de rapports, traduction, documentation, analyse d’incidents post-mortem. Et ces systèmes ne tombent pas du ciel. Ils sont entraînés, ajustés et évalués par les mêmes humains que la direction projette parfois de remercier.

C’est là que ça coince. Une partie du personnel construit, brique par brique, le système qui servira à justifier sa propre suppression. Documentation des process, correction des sorties, création d’exemples, annotation des données, repérage des erreurs : autant de gestes qui rendent le modèle utilisable. Il y a quelque chose de glaçant dans cette mécanique.

Pour une entreprise tech, l’affaire Zhou pose donc aussi une question de gouvernance. Automatiser un poste, ce n’est pas brancher une API et passer à autre chose. Cela suppose de repenser les processus, redistribuer les responsabilités, recalibrer les indicateurs et décider du sort des salariés concernés. Le message tient en une ligne : l’IA peut bien avoir un coût caché par prompt, elle a aussi un coût social qu’on ne peut plus refiler entièrement aux équipes.

Beaucoup d’entreprises présentent leurs modèles comme des « copilotes » destinés à assister les équipes. En coulisses, elles préparent le plan de réduction des effectifs. Elles demandent à leurs collaborateurs de documenter leurs tâches au prétexte d’« améliorer le système », sans toujours offrir formation, mobilité ou partage de la valeur créée. La décision chinoise ne freine pas la technologie. Elle rappelle juste que l’efficacité ne vaut pas dispense des obligations sociales.

Ce que ça change pour les RH, le produit et la conformité

Jusqu’ici, les débats sur l’IA et l’emploi tournaient autour de trois sujets : les biais algorithmiques, la surveillance des salariés et l’automatisation du recrutement. Ils restent valables. Mais Hangzhou ouvre une autre porte : que se passe-t-il quand l’employeur instrumentalise l’IA comme levier opérationnel pour supprimer un poste précis ?

La réponse du tribunal dessine une doctrine assez pragmatique. Premier point : il faut documenter sérieusement la réorganisation, pas se contenter d’invoquer « l’IA peut le faire ». Deuxième point : tout changement de fonction ou de rémunération doit rester raisonnable, négocié, et accompagné d’une vraie réflexion sur la formation et la mobilité interne. Troisième point : une réduction de salaire ne peut pas servir de pression déguisée pour pousser quelqu’un vers la sortie, surtout si elle ne s’appuie sur aucune amélioration technologique mesurable.

Côté RH et conformité, la conclusion est claire. Les projets d’automatisation devront intégrer une vraie évaluation d’impact social, au-delà du simple ROI. Quand une équipe déploie des agents pour le service client, le contrôle qualité ou le support interne, elle doit savoir dire quelles tâches disparaissent, lesquelles changent, quels profils se reconvertissent, quels indicateurs s’appliquent et quelles alternatives sont sur la table.

Cette gouvernance doit gagner en rigueur, au même titre que la sécurité des modèles ou la protection des données. Un système peut être techniquement irréprochable et générer un conflit social majeur si son déploiement passe pour une dégradation unilatérale des conditions de travail. Le risque dépasse largement le contentieux individuel : c’est la confiance des équipes qui se joue, surtout quand elles soupçonnent leur travail d’alimentation des modèles de servir aussi à accélérer leur départ.

États-Unis, Europe, Chine : trois logiques très différentes

L’écart entre juridictions saute aux yeux. Aux États-Unis, le principe de l’emploi « at will » prévaut : l’employeur peut rompre le contrat sans motif spécifique, sauf cas de discrimination ou de motifs prohibés. Aucune norme fédérale n’interdit, à ce jour, de remplacer un salarié par un système d’IA.

En Europe, l’AI Act (entré en application progressive depuis 2025) classe certains systèmes d’IA utilisés en recrutement et gestion du personnel parmi les usages à haut risque. Ces systèmes doivent passer par une évaluation, une documentation détaillée, une gestion des risques et une supervision humaine. Pour autant, la protection contre les licenciements liés à l’automatisation continue de relever en grande partie du droit national, des conventions collectives et de la jurisprudence locale. Côté infrastructure, les entreprises doivent aussi composer avec la réalité matérielle de l’IA : le déploiement à la périphérie ou en datacenter pèse lourd dans les arbitrages.

En Chine, à travers le cas de Hangzhou et plusieurs autres dossiers déjà jugés à Pékin et Guangzhou, la lecture du droit du travail traditionnel reste solide. L’IA n’est pas tenue pour une cause objective extérieure, mais pour une technologie que l’entreprise choisit de déployer pour gagner en compétitivité, baisser ses coûts ou réorganiser ses équipes. La transition reste donc à la charge de l’employeur, qui doit en assumer une part.

Si les tribunaux confirment cette ligne, les entreprises chinoises devront prévoir des plans de reconversion, de formation et de reclassement avant d’automatiser, plutôt que de basculer brutalement sur une réduction d’effectifs. Leur déploiement d’IA devra aussi intégrer ces coûts d’adaptation et de gestion du changement dans les calculs initiaux.

Le vrai prix du remplacement par l’IA

Ce dossier remet en cause un présupposé tenace : l’idée qu’une IA coûterait toujours moins cher qu’un humain. Sur de petites tâches, parfois. Mais la liste des coûts cachés s’allonge à mesure que les déploiements grandissent : infrastructure, licences, consommation de tokens, intégration, supervision, audit, cybersécurité, maintenance des prompts, gestion des erreurs, responsabilité juridique. Et maintenant, indemnités potentielles devant le juge.

Le récit selon lequel l’IA « supprime » des emplois mérite aussi d’être nuancé. Dans la majorité des cas, elle déplace plutôt qu’elle élimine : restent des tâches de supervision, d’intervention exceptionnelle, d’administration, d’évaluation. Une suppression trop rapide fait perdre à l’organisation un savoir-faire opérationnel précieux, justement à l’instant où il faut valider la fiabilité du système.

Pour le secteur tech, la leçon est concrète. L’IA ne doit pas être traitée comme un raccourci budgétaire à appliquer sans repenser les processus. Bien orchestrée, elle libère du temps pour des tâches à plus forte valeur, accélère le traitement des demandes ou améliore la qualité finale. Mal pilotée, elle fragilise l’organisation, entame la confiance des équipes et produit des systèmes opaques aussi fragiles qu’imprévisibles.

La décision de Hangzhou ne va pas freiner la montée en puissance des agents ni stopper la vague d’automatisation. Elle pose pourtant une question dérangeante : qui empoche le gain de productivité de l’IA, et qui en paie le prix ? Pendant longtemps, l’employeur captait les bénéfices et le salarié encaissait le risque. Ce dossier suggère que cette équation commence à craquer, du moins devant certains tribunaux.

La prochaine étape de la transformation par l’IA ne sera donc pas que technique. Elle sera aussi organisationnelle, juridique et sociale. Les modèles vont continuer à progresser, les agents vont absorber davantage de tâches, les fonctions métier vont se reconfigurer. Mais si l’automatisation continue de reposer sur des salariés formés à alimenter les systèmes destinés à les remplacer sans alternative crédible, le problème ne sera pas seulement un déficit d’efficacité. Ce sera un déficit de légitimité.

Questions fréquentes

La Chine a-t-elle interdit de licencier à cause de l’IA ?
Non, pas de façon générale. Mais plusieurs tribunaux ont jugé illégitime d’utiliser l’adoption d’une IA comme seule justification pour rétrograder, baisser le salaire ou licencier un salarié sans cause objective réelle.

Quel est l’enjeu juridique exact de l’affaire Zhou ?
L’employeur a tenté de faire passer l’arrivée de l’IA pour une « modification substantielle des circonstances objectives », au sens du droit du travail chinois. Les juges ont refusé cette qualification : pour eux, automatiser reste une décision stratégique de l’entreprise, pas une force majeure.

Quel signal pour les entreprises tech qui déploient des agents ?
Les projets d’automatisation devront s’accompagner d’une analyse d’impact social, d’une concertation et d’un plan de reconversion. Le seul argument de gains financiers ne suffit pas à dégager la responsabilité sociale de l’employeur.

Une jurisprudence comparable est-elle envisageable en Europe ?
Cela dépendra de chaque pays. L’AI Act encadre certains usages de l’IA en contexte professionnel, mais la protection contre les licenciements liés à l’automatisation reste largement nationale, tributaire des conventions collectives et de la jurisprudence locale.

via : China limite les licenciements pour IA

le dernier