Dans une interview qu’il a récemment accordé au Parisien, le nouveau Premier ministre est notamment revenu sur les deux projets de budgets, dont le projet de loi de financement de la Sécurité sociale (PLFSS), qu’il doit présenter d’ici peu au Parlement. Dans ce cadre, il a néanmoins encore entretenu le flou quant aux mesures concrètes qui seront prévues dans le prochain PLFSS pour maintenir à flot la stratégie de redressement des comptes.
Quelques jours plus tôt, le Comité d’alerte de l’Objectif National de Dépenses d’Assurance Maladie (ONDAM) a par ailleurs rendu public son analyse des mesures d’économies annoncées par le Gouvernement suite à son avis de juin dernier, pointant un risque estimé sérieux de dépassement de l’objectif 2025. Sur les 1,74 Md€ annoncés, seuls 1,5 Md€ sont jugés « certains, probables ou vraisemblables » :
Lors de son webinaire en date du 16 septembre 2025, l’ACPR a réalisé un focus sur la gestion du risque de taux et la modélisation des rachats.
Le Secrétariat Général de l’Autorité a tout d’abord rappelé que la gestion du risque de taux demeurait une priorité lors de ses contrôles sur place depuis 2022.
Les principales attentes réglementaires concernant la gestion du risque de taux sont étendues mais peu prescriptives laissant place à beaucoup de latitudes (gestion des risques : article R.354-2 du Code des assurances et article 44 de la directive Solvablilté2 ; gestion du risque actif/passif : article 260 du règlement délégué).
Gérer le risque de taux ne signifie pas forcément minimiser ce risque mais définir le niveau de risque acceptable.
La duration constitue le premier indicateur du risque de taux (écart de duration entre l’actif et le passif). Pour autant, une analyse des mouvements non parallèles de la courbe de taux est nécessaire ; ladite analyse pouvant s’appuyer sur l’adossement actif-passif par intervalles de maturités.
Le 28 aout dernier, l’Assurance Maladie et neuf organisations représentatives des centres de santé (Adedom, FMF, FNMF, FNCS, UNADMR, UNA, C3SI, Fehap, CANSSM) sont parvenus à un accord visant à redéfinir leurs relations conventionnelles et plus particulièrement les rémunérations complémentaires dont les centres de santé (médicaux, dentaires, polyvalents ou infirmiers) sont bénéficiaires. Saisie pour avis, l’UNOCAM, qui avait participé aux discussions, a par ailleurs décidé de devenir signataire de cet accord le 5 septembre 2025.
Dans un contexte budgétaire sensible, l’Assurance Maladie et les organisations représentatives se sont en effet accordées sur les efforts financiers nécessaires visant à sécuriser et consolider le modèle économique actuel.
Aujourd’hui, la plus grande partie de la rémunération des centres de santé est fondée sur le modèle de paiement à l’acte des consultations réalisées dans ces structures. Or, ce fonctionnement n’est plus adapté à la situation économique.
Pour soutenir les centres de santé, l’accord prévoit donc un investissement financier pluriannuel du montant de 50 millions d’euros supplémentaires de la part de l’AMO, dont 30 millions seraient accordés dès 2026.
Les axes principaux de l’accord portent ainsi sur :
Le 17 septembre 2025, l’Autorité de contrôle prudentiel et de résolution (ACPR) a organisé une réunion de place dédiée à la surveillance de l’intelligence artificielle (IA) dans le secteur financier.
Cette rencontre, qui s’inscrit dans le cadre de la mise en œuvre du Règlement européen sur l’IA (connu sous le nom d’IA-Act), vise à accompagner les acteurs du marché dans leur adaptation à cette nouvelle réglementation.
Basée sur l’hypothèse que l’ACPR sera désignée comme autorité de surveillance pour les usages spécifiques au secteur financier – proposition émise par la Direction générale des entreprises (DGE) et la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), en attente de validation parlementaire –, la présentation a mis l’accent sur les enjeux européens et nationaux. Au cours de cette réunion a été souligné l’urgence pour les institutions financières de se préparer à un cadre plus strict, tout en favorisant un dialogue constructif entre superviseurs et acteurs du secteur. Les points principaux à retenir sont les suivants :
Le Règlement IA, adopté par l’Union européenne, repose sur deux objectifs principaux : protéger la sécurité, la santé et les droits fondamentaux des citoyens, tout en créant un marché unique de l’IA fiable. Inspiré des normes de sécurité des produits, ce texte trans-sectoriel adopte une approche basée sur les risques, classés en quatre niveaux, du minimal à l’inacceptable, avec une catégorie supplémentaire pour les IA à usage général (IAUG), comme les modèles génératifs.
Dans le secteur financier, deux usages spécifiques sont qualifiés de « haut risque » selon l’Annexe III. Les obligations pour ces systèmes à haut risque sont rigoureuses : gestion itérative des risques, utilisation de données de haute qualité, documentation technique détaillée, transparence et interprétabilité, surveillance humaine pour minimiser les risques résiduels, ainsi que robustesse, exactitude et cybersécurité tout au long du cycle de vie.
Ces exigences visent à instaurer une confiance accrue, non seulement pour les consommateurs, mais aussi pour assurer des conditions de concurrence équitables, y compris avec les acteurs extra-européens. Comme l’a rappelé Nathalie Aufauvre, secrétaire générale de l’ACPR, lors de l’introduction, ce cadre réglementaire marque un tournant vers une IA responsable, évitant les dérives tout en promouvant l’innovation.
Une grande partie de la réunion s’est concentrée sur la gouvernance européenne du Règlement. Au niveau de l’UE, le Bureau européen de l’IA (AI Office) joue un rôle central en veillant à l’application cohérente du texte, en supervisant les modèles d’IAUG et en facilitant l’adoption de codes de bonnes pratiques.
Il est assisté par le Comité européen de l’IA (AI Board), qui coordonne les autorités nationales, un Forum consultatif regroupant des parties prenantes (entreprises, société civile, universités), et un Groupe scientifique d’experts indépendants chargé d’alerter sur les risques systémiques.
Dans le secteur financier, un sous-groupe dédié au sein de l’AI Board examine les interactions entre le Règlement IA et la réglementation sectorielle. Les autorités européennes de supervision (ESAs), comme l’Autorité bancaire européenne (EBA), l’Autorité européenne des assurances et des pensions professionnelles (EIOPA) et l’Autorité européenne des marchés financiers (ESMA), assistent les États membres dans cette mise en œuvre.
Des travaux de cartographie sont en cours pour identifier les chevauchements, contradictions ou lacunes entre le Règlement IA et les textes existants, tels que le CRR/CRD pour le prudentiel bancaire ou les guidelines de l’EBA sur l’octroi de prêts et la gouvernance interne.
Les premiers enseignements de ces cartographies, présentés lors de la réunion, sont encourageants : le Règlement IA et la réglementation financière européenne sont globalement complémentaires, sans contradictions majeures identifiées.
Toutefois, des ajustements techniques pourraient s’avérer nécessaires, et une évaluation plus approfondie dépendra de clarifications futures. L’ACPR plaide pour une application minimisant la charge pour les établissements, dans un objectif de simplification de la supervision européenne. L’EIOPA a déjà publié une opinion en août 2025, tandis que l’EBA poursuit ses travaux pour l’automne.
Un focus particulier a été porté sur les IA à usage général. Les guidelines de la Commission européenne, publiées en juillet 2025, précisent les exigences : documentation technique, informations pour les fournisseurs aval, politique de respect du droit d’auteur, et résumé public du contenu d’entraînement. Pour les modèles à risque systémique, des obligations supplémentaires en matière de sûreté et de cybersécurité s’appliquent.
Sur le plan national, l’ACPR se positionne comme l’autorité probable pour superviser les systèmes d’IA dans le secteur financier (cf. notre article « IA-Act / Attribution de compétence sectorialisée des autorités de régulation du marché »), couvrant les IAUG utilisées pour des cas à haut risque, ainsi que les systèmes classiques déployés par les institutions. Son rôle inclut la collecte d’informations, les contrôles de conformité, la gestion des non-conformités et la coordination avec d’autres autorités. Pour cela, l’ACPR dispose de pouvoirs étendus : requêtes d’informations (y compris données et code source si nécessaire), inspections inopinées et sanctions.
La feuille de route de l’ACPR vise trois objectifs à court terme : accompagner le secteur via communication et guidance, développer une méthodologie d’audit adaptée, et organiser en interne. Une réorganisation effective au 1er octobre 2025 crée la Direction de l’Innovation, des Données et des Risques Technologiques (DIDRIT), avec un service dédié à la surveillance des risques technologiques, intégrant le Règlement IA et DORA (résilience numérique).
Enfin, l’ACPR renforce sa communication : réunions régulières (au printemps 2026), page dédiée sur son site avec FAQ et vidéos, et une adresse email pour suggestions (Reglement-ia@acpr.banque-france.fr).
Les Etats membres avaient jusqu’au 2 aout 2025 pour désigner leur autorité nationale compétente en charge de surveiller et de contrôler la conformité des systèmes d’IA en application du règlement (cf. édition bulletin juil. 2025).
Aussi, si très peu de doutes subsistaient quant à la désignation naturelle de l’ACPR en tant que régulateur pour la mise en œuvre du règlement vis-à-vis des acteurs du secteur financier (banques, assurances, mutuelles…), la Frances semble cependant avoir opter pour un schéma de gouvernance plus global, coordonné autour de plusieurs autorités, adoptant une approche décentralisée des compétences.
Le 9 septembre 2025, les Autorités Européennes de Surveillance (AES) – composées de l’Autorité Bancaire Européenne (ABE), de l’Autorité Européenne des Assurances et des Pensions Professionnelles (EIOPA) et de l’Autorité Européenne des Marchés Financiers (ESMA) – ont publié leur quatrième rapport annuel titré « Principal Adverse Impact Disclosures under the Sustainable Finance Disclosure Regulation », qui analyse les impacts des principales incidences négatives (PAI, pour Principal Adverse Impacts) en vertu de l’article 18 du Règlement sur la Divulgation en Matière de Finance Durable (SFDR, Regulation (EU) 2019/2088).
Ce document évalue notamment l’étendue des divulgations volontaires au niveau des entités et des produits financiers, tout en tenant compte des implications des pratiques de diligence raisonnable. Il s’appuie sur les rapports précédents (2022, 2023 et 2024) pour identifier les progrès, les tendances persistantes et les recommandations visant à renforcer la transparence dans le secteur financier européen.
Rappelons que le Règlement SFDR, adopté en 2019, impose des obligations de divulgation pour promouvoir une finance plus durable.
Les divulgations PAI au niveau des entités sont obligatoires pour les entités employant plus de 500 salariés, tandis que les plus petites entités peuvent opter pour le principe comply-or-explain en matière de PAI, mais doivent respecter les règles détaillées du Règlement Délégué SFDR (Annexe I) si elles choisissent de divulguer. Au niveau des produits, les divulgations sont requises depuis le 30 décembre 2022 pour les produits appliquant l’article 4(1)(a) du SFDR.
Le 23 septembre 2025, le CEPD publie un « TechDispatch » portant sur la supervision humaine de la prise de décision automatisée.
Un « TechDispatch » est un moyen pour le CEPD de développer une explication portant sur une nouvelle technologie impactant directement les données personnelles et les droits fondamentaux des personnes concernées. Le contrôleur européen s’attarde alors à présenter les enjeux, les risques mais aussi les bonnes pratiques à adopter au sein de son organisme. Ces explications ont pour vocation d’avertir les entités afin de limiter les risques liés à la technologie présentée.
Ainsi, dans ce « TechDispatch », le CEPD présente une forme d’intelligence artificielle vouée à se développer de façon accrue et ce dans de nombreux secteurs, dont notamment le secteur assurantiel et bancaire : l’IA de prise de décision automatisée.
Le CEPD rappelle alors l’importance de l’intervention humaine dans ce type d’intelligences artificielles. En effet, il est important de noter qu’une intelligence artificielle est obligatoirement biaisée, celle-ci étant réalisée à l’origine par un humain et récoltant des données et des informations qui peuvent elles-mêmes être erronées. Ainsi, l’utilisation d’une IA prenant des décisions de façon automatisée pourrait conduire à un traitement injuste ou à différentes erreurs.