Deux univers, deux vitesses. Alors que la Cour des comptes vient de publier son premier audit consacré à l’utilisation de l’intelligence artificielle par France Travail, révélant un déploiement ambitieux mais entaché de graves lacunes juridiques, les caisses nationales de Sécurité sociale peinent encore à structurer une stratégie cohérente face à cette révolution technologique.
France Travail : pionnier empêtré dans ses contradictions
Depuis 2015, France Travail (ex-Pôle emploi) a engagé une course effrénée vers l’intelligence artificielle. Le bilan financier donne le vertige : 93 millions d’euros investis entre 2017 et 2024, auxquels s’ajoutent 15 millions prévus pour 2025. À la clé, 27 cas d’usage déployés à grande échelle en avril 2025, et un objectif stratégique assumé : libérer 779 équivalents temps plein d’ici 2027 grâce à l’IA pour absorber les nouvelles missions du réseau pour l’emploi.
Les chiffres d’adoption témoignent d’une appropriation progressive : en mars 2025, 56% des agents déclaraient utiliser l’IA, dont 9% quotidiennement. Des outils comme ChatFT (assistant conversationnel interne), MatchFT (mise en relation employeur-demandeur d’emploi via SMS) ou Lego (identification automatique des offres d’emploi illégales) ont fait leurs preuves. Mais derrière cette façade technophile, la Cour des comptes révèle un édifice fragile.
L’angle mort de la conformité juridique reste béant.
La juridiction financière ne mâche pas ses mots : France Travail présente une « quasi-absence d’analyses d’impact relatives à la protection des données » (AIPD) pour ses cas d’usage d’IA. Sept ans après l’entrée en vigueur du RGPD en mai 2018, seul un cas d’usage sur 87 identifiés a fait l’objet d’une AIPD complète. Plus grave encore, l’enquête a découvert qu’un projet avait mobilisé des outils de reconnaissance des émotions sur le lieu de travail, une pratique interdite par le Règlement européen sur l’IA (RIA) sauf contexte médical ou de sécurité.
Sécurité sociale : des expérimentations éclatées, aucune vision d’ensemble
Du côté des caisses nationales de Sécurité sociale, le tableau se révèle encore plus contrasté. Un rapport de l’École nationale supérieure de Sécurité sociale (EN3S) publié en mai 2024 dresse un état des lieux édifiant : les organismes utilisent l’IA depuis une dizaine d’années, principalement pour l’automatisation de processus (RPA), les chatbots de première génération et la détection de fraude par datamining.
À la CNAF, près de 3,84 millions de pièces ont été traitées par les assistants digitaux en 2023, soit une progression de 10% par rapport à 2022. Le chatbot allocataires a enregistré 57 millions de questions en 2023. L’Urssaf Caisse nationale a déployé un chatbot sur une quinzaine de cibles et un voicebot traitant 40% des appels téléphoniques.
À l’Assurance Maladie, le déploiement d’un chatbot de première génération a permis de réduire de moitié le flux entrant de courriels à traiter.
Mais ces succès ponctuels masquent une réalité moins flatteuse : aucune caisse nationale n’a encore déployé de stratégie IA structurée et transversale comparable à celle de France Travail. Les expérimentations sur l’IA générative restent balbutiantes. L’Ucanss teste une aide à la recherche juridique augmentée par l’IA, mais sans déploiement opérationnel généralisé. Seule l’Urssaf Caisse nationale a systématisé une démarche d’encadrement du recours aux assistants virtuels de programmation informatique par ses développeurs.
Gouvernance : le grand absent des deux côtés
La comparaison révèle un déficit structurel commun : l’absence de pilotage stratégique au plus haut niveau. Chez France Travail, la Cour des comptes pointe que le conseil d’administration n’a été que « ponctuellement informé » jusqu’en mai 2025. Le programme Data IA, lancé en 2024 et revêtant pourtant une importance majeure, n’a été présenté au conseil qu’en mai 2025, après le début de l’enquête. La convention du programme Intelligence emploi (2019-2022) avait elle-même été présentée au conseil d’administration un an et demi après sa signature.
Du côté de la Sécurité sociale, le rapport EN3S constate l’absence de « centre d’excellence pour l’IA entre caisses nationales » qui permettrait de mutualiser les ressources et de créer un vivier de compétences. Chaque caisse avance en ordre dispersé, sans capitalisation des expériences ni harmonisation des bonnes pratiques. Le Schéma stratégique des systèmes d’information de la Sécurité sociale.
L’algorithme de notation : quand l’IA discrimine
Un point commun inquiétant émerge : l’utilisation d’algorithmes de scoring à risque discriminatoire. Depuis 2010, la CNAF utilise un algorithme de datamining qui attribue un score de risque aux allocataires pour détecter les fraudeurs potentiels. En 2022, l’organisme annonçait avoir effectué 28,3 millions de contrôles « automatisés ». Des associations ont attaqué en justice la CAF en mars 2025 pour discrimination.
France Travail n’échappe pas à cette pratique. L’opérateur développerait un algorithme visant à évaluer l’employabilité via la « détection de signaux psychologiques » et l' »augmentation de la capacité de diagnostic relative aux traitements des aspects motivationnels ». Une approche qui soulève d’évidentes questions éthiques et juridiques.
Le paradoxe de la conformité : charte éthique contre réalité opérationnelle
Les deux univers partagent un paradoxe troublant : l’affichage de chartes éthiques ambitieuses sans mise en œuvre effective. La CNAF s’est dotée d’une charte éthique sur l’usage des algorithmes et de l’IA dès décembre 2020, mettant en avant l’amélioration du service rendu aux allocataires et le paiement du juste droit. France Travail a publié sa propre charte en avril 2022.
Pourtant, la réalité opérationnelle est tout autre. Chez France Travail, seuls 18 cas d’usage sur 87 ont fait l’objet d’une analyse éthique formalisée. Le comité consultatif éthique, instance indépendante censée apporter un éclairage, n’a eu connaissance que d’un cas d’usage développé sur six. La Cour des comptes dénonce une « confusion entre les obligations normatives et les engagements éthiques » : l’opérateur a intégré de facto des obligations juridiques contraignantes (RGPD, RIA) dans son cadre éthique volontaire.
À la Sécurité sociale, le rapport EN3S souligne que les chatbots actuels ne sont « pas encore interconnectés avec le cœur des systèmes d’information », rendant impossible toute personnalisation réelle ou approche proactive du type « aller vers » l’usager. L’interconnexion nécessiterait « des travaux informatiques ambitieux et de longue haleine compte tenu de leur complexité et de la sensibilité des données traitées ».
Données personnelles : le talon d’Achille commun
Le pilotage des données constitue la faiblesse récurrente des deux écosystèmes. Chez France Travail, dès le programme Intelligence emploi (2019-2022), les données alimentant les cas d’usage étaient « dispersées et insuffisamment actualisées ». Un bilan de maturité réalisé en 2022 confirmait ce diagnostic : manque de « fraîcheur » des données sur les demandeurs d’emploi et les entreprises, dispersion dans les applicatifs métiers.
Cette faiblesse a justement motivé le lancement du programme Data IA en 2024.
Pour la Sécurité sociale, le défi est d’une autre nature : améliorer la circulation des données entre caisses tout en garantissant la protection du numéro de sécurité sociale (NIR), considéré en France comme une donnée personnelle à protéger particulièrement en raison de son caractère unique. Un décret de 2019 encadre strictement les traitements utilisant le NIR, mais l’adaptation des systèmes d’IA à ces contraintes réglementaires reste un chantier ouvert.
Gains de productivité : promesses et mirages
Sur le plan des résultats économiques, France Travail affiche un bilan légèrement positif : les gains cumulés sont estimés à 120 millions d’euros pour la période 2017-2025 (sous hypothèses favorables), contre 93 millions investis entre 2017 et 2024 et 15 millions prévus pour 2025. Mais ces gains ne se sont pas traduits par une réduction nette des effectifs, mais par des « redéploiements intra-postes » – autrement dit, les conseillers passent moins de temps sur des tâches répétitives pour se concentrer sur des missions à plus forte valeur ajoutée.
Du côté de la Sécurité sociale, les estimations manquent cruellement. Le rapport EN3S note que « les données micro manquent encore trop souvent » pour évaluer précisément les gains de productivité. À la CNAM, les gains de productivité liés aux assistants de programmation informatique sont estimés entre 5 et 10%, « variables et efficaces surtout pour les bons développeurs ». Un chiffre modeste qui souligne que l’IA ne constitue pas une baguette magique.
Recommandations : un chemin commun vers l’IA responsable
Face à ces constats, les experts formulent des recommandations convergentes. La Cour des comptes a adressé huit recommandations prioritaires à France Travail pour 2026, dont l’examen systématique de la conformité au RGPD et au RIA de tous les cas d’usage, y compris ceux développés localement, et le renforcement du comité consultatif éthique avec des critères de saisine obligatoire.
Le rapport EN3S propose des pistes similaires pour la Sécurité sociale : création d’un centre d’excellence interbranche pour l’IA, amélioration de la circulation des données entre caisses, expérimentation de solutions IA sur des sujets majeurs comme la prévention pour le grand âge ou la lutte contre le non-recours. Il insiste sur la nécessité d' »acculturer tout le personnel à l’usage de ces outils IA, et non seulement le personnel informatique ».
Un point d’accord émerge des deux côtés : l’IA ne remplacera pas les agents mais doit les « augmenter ». Comme le souligne Dominique Libault, directeur de l’EN3S, dans son avant-propos : « L’IA ne remplacera pas les collaborateurs de la sécurité sociale. Elle est au contraire une chance, un complément technologique bienvenu, pour l’exercice de leurs métiers et la qualité du service rendu à nos concitoyens ».
L’urgence d’un pilotage politique
Au-delà des aspects techniques et juridiques, la comparaison France Travail-Sécurité sociale révèle un vide stratégique au sommet de l’État. Ni le ministère du Travail ni celui des Solidarités ne semblent avoir défini une doctrine claire sur l’utilisation de l’IA dans les services publics sociaux. La Cour des comptes note que le ministère chargé de l’emploi assure un « suivi distant » des résultats du déploiement de l’IA par France Travail. La direction interministérielle du numérique (Dinum) a été « peu mobilisée » par l’opérateur.
Pourtant, les enjeux dépassent largement le cadre technique. Avec le vieillissement de la population, la montée du non-recours aux droits (34% pour le RSA selon la Drees) et la nécessité de maîtriser les dépenses publiques, l’IA pourrait constituer un levier majeur de transformation. Mais à condition d’être déployée dans un cadre juridique et éthique robuste, sous le contrôle effectif des instances de gouvernance et avec une vraie transparence vis-à-vis des usagers.
France Travail et les caisses de Sécurité sociale ont devant eux un chemin semé d’embûches : concilier innovation technologique, protection des données personnelles, respect de l’éthique et efficacité opérationnelle. Un défi qui nécessitera davantage qu’une simple accumulation de chatbots et d’algorithmes. Il exigera un pilotage politique assumé, des investissements massifs dans les compétences, et surtout, une refondation de la relation entre les administrations sociales et les citoyens à l’ère de l’intelligence artificielle.
Sources : rapport de la Cour des comptes « France Travail et l’intelligence artificielle » (octobre 2025) et rapport de recherche de l’EN3S « Les usages présents et futurs de l’intelligence artificielle au service de la Sécurité sociale » (mai 2024).