Plus de la moitié des agents de France Travail déclarent, en 2025, recourir à des outils de l’intelligence artificielle (IA). Avec quelles conséquences sur leurs propres conditions de travail ? La Cour des comptes s’intéresse, dans un rapport paru le 8 janvier, à l’utilisation de l’IA par le premier opérateur de l’État en termes d’effectifs salariés.
Gérant près de 60 millions de mails ou d’appels aux bénéficiaires chaque jour, les salariés de France Travail utilisent l’IA depuis 2019. Analyse automatique des CV, gestion des mails et des appels téléphoniques, vérification de la légalité des offres d’emploi et de leur correspondance à des demandes... Une trentaine d’outils IA sont identifiés par la Cour des comptes.
C’est surtout le déploiement de l’IA générative, c’est-à-dire capable de créer des contenus, qui marque une « rupture » pour le personnel, selon la Cour. Depuis novembre 2024, les salariés utilisent ChatFT pour France Travail, un outil similaire à ChatGPT, mais qui s’appuie sur les modèles d’IA générative développés par l’entreprise française Mistral AI.
Les agents passent par ces outils, nommés « FTs », pour rédiger des mails (l’usage majoritaire selon les données recueillies par la Cour), analyser des documents ou encore rechercher des informations légales. De plus en plus, les agents utilisent aussi l’IA pour leurs interactions avec les demandeurs d’emploi (MatchFT) ou les entreprises (QualiFT) – interactions qui en « seront profondément affectées », prévient la Cour.
L’un des risques identifiés est la perte d’autonomie, ou, a minima, un sentiment de « dépossession ». Les professionnels se retrouvent « moins en position de faire et davantage en position de contrôler, vérifier, valider », souligne le rapport. « Ça change complètement nos métiers. On n’est plus sur de l’accompagnement, on va appuyer sur des boutons », dénonçait déjà en juin dernier Vincent Lalouette, de la FSU-Emploi, dans notre enquête sur le contrôle automatisé par l’IA des chômeurs et chômeuses. « La relation avec l’usager sera une catastrophe. On n’aura plus affaire à un humain mais une bécane. »
Manque de dialogue
La Cour des comptes relève aussi les « risques élevés en matière de données personnelles », du fait du retard, jugé « important », de France Travail dans sa mise en conformité avec le RGPD (le règlement général sur la protection des données de 2016) et le règlement européen sur l’IA (adopté en 2024).
Des risques pour les millions de personnes inscrites au chômage, d’abord, d’autant que, depuis l’entrée en vigueur début 2025 de la loi « plein emploi », leurs données sont consultables par les autres organismes d’insertion (Cap Emploi, Missions locales…).
Des risques pèsent aussi sur les salariés. Car le recours à l’IA « peut impliquer la saisie de données permettant l’identification du professionnel concerné », ce qui soulève « des craintes fortes [...] quant à l’utilisation des données qui sont ainsi collectées du point de vue de la surveillance et du contrôle qui s’exerce sur les travailleurs », explicite le rapport de la Cour.
Or, à ce stade, France Travail n’a produit aucune analyse d’impact de l’IA sur les métiers existants ni sur les conditions de travail, regrette la Cour des comptes. Plus d’un an après le déploiement de ChatFT, par exemple, il n’y a toujours pas eu de présentation d’une fiche de synthèse « impacts humains et organisationnels » au comité social et économique (CSE).
Signe du manque de dialogue, les représentants du personnel membres du CSE restent méfiants quant à ces nouveaux outils. Une consultation, menée en juin 2024 avant le lancement de ChatFT, avait donné lieu à un vote défavorable. Déjà en 2019 et 2021, les premières consultations portant sur des outils IA avaient fait l’objet d’un refus de se prononcer, puis d’un vote négatif. Les élus CSE ont également refusé d’être représentés au sein du comité opérationnel du pilotage de l’IA.
En septembre 2024, un comité de suivi des usages de l’IA, composé de représentants d’organisations syndicales, de membres de la direction et d’experts de l’IA a bien été créé. Cependant, « le rôle exact de celui-ci demeure ambigu » : sans charte de fonctionnement à ce jour, ses missions et son positionnement flou par rapport au CSE demandent à être « précisés et clarifiés », selon la Cour.
Face à ces constats, la Cour des comptes rappelle les recommandations du LaborIA, laboratoire créé par le ministère du Travail et l’Institut national de recherche en sciences et technologies du numérique (Inria). Dans une étude de référence de mai 2024, celui-ci insistait sur l’importance de « mettre l’IA au service de la sécurisation des travailleurs, c’est-à-dire pour appuyer leurs pratiques professionnelles, réduire les risques socioprofessionnels et améliorer la qualité de vie au travail ».
