Le mot d’ordre pour 2026 n’est pas que l’IA devient plus performante mais que les attentes deviennent plus claires. Le 14 janvier 2026, l’EMA et la FDA ont publié des principes directeurs communs sur les bonnes pratiques en matière d’utilisation de l’IA dans le développement des médicaments. Cela témoigne d’une harmonisation réglementaire sur ce que l’on entend par « bonnes pratiques » lorsque l’IA vient renforcer les données tout au long du cycle de vie d’un médicament, tant lors des essais cliniques que de la surveillance et de la sécurité.
Ces principes ne constituent pas un nouvel ensemble de règles. Ils servent de référence pour déterminer comment l’IA doit être mise en œuvre dans le cadre de processus réglementés. Ces lignes directrices n’impactent pas les aspects technologiques, mais sont spécifiques sur le plan opérationnel : elles visent à définir le contexte d’utilisation, à mettre en place des contrôles fondés sur les risques, à encadrer les données et la documentation, et à gérer le système tout au long de son cycle de vie afin de garantir une surveillance continue. Il faut les considérer comme un changement de perspective, passant de la question « Pouvons-nous utiliser l’IA ? » à celle de « Pouvons-nous exploiter l’IA de manière fiable, en toute transparence et en assumant nos responsabilités ? »
Au cours des 18 à 24 derniers mois, de nombreuses entreprises du secteur des sciences de la vie ont exploré les possibilités offertes par l’IA dans des cas d’usage « riches en texte » et d’assistance : résumer de longs documents, classer des contenus, extraire des données et rédiger des textes à usage interne ou externe. Il s’agit là d’un point de départ logique, car ces projets sont rapides à mettre en place et permettent de démontrer facilement leur valeur ajoutée.
La partie la plus complexe est celle qui vient ensuite. Dès que les résultats générés par l’IA commencent à influencer les données, les décisions ou les actions soumises à la réglementation, le simple fait que « cela semble fonctionner » ne suffit plus. La norme évolue désormais vers une approche reproductible et soumise à un contrôle : une utilisation cohérente en fonction du contexte, une responsabilité clairement établie avec une intervention humaine, et une trace capable de résister à un examen minutieux au fil du temps. C’est ce que les principes de l’EMA et de la FDA mettent davantage en évidence.
L’expression la plus déterminante dans l’approche adoptée par les régulateurs est « contexte d’utilisation ». L’IA n’est pas évaluée dans un cadre abstrait. Elle est évaluée en fonction de ce à quoi elle est destinée, de ce sur quoi elle a une influence et des risques qu’elle engendre.
Un assistant de rédaction utilisé pour résumer des notes internes est une chose. Une IA qui utilise la même méthode de synthèse pour hiérarchiser l’examen des dossiers de sécurité, signaler des erreurs potentieles dans le cadre d’essais cliniques en est une autre. La même technique peut passer d’un impact faible à un impact élevé simplement en fonction de sa place dans le processus et de la manière dont ses résultats sont utilisés.
Cette différence est importante, car elle modifie ce que l’on entend par « bonnes pratiques » dans la réalité. Lorsque le contexte d’utilisation présente un risque plus élevé, les attentes qui l’entourent évoluent en conséquence : des contrôles plus clairs, une documentation plus rigoureuse, une supervision humaine explicite et une gestion des changements plus rigoureuse. Concrètement, cela signifie que les programmes d’IA devront de plus en plus disposer d’un inventaire des cas d’usage mis en correspondance avec les risques, avec des limites bien définies et une conception commune de la responsabilité.
Ce choix en matière de conception revêt une importance cruciale : faut-il que l’IA soit placée en dehors du flux de travail réglementé, en tant qu’outil distinct, ou qu’elle soit intégrée aux systèmes dans lesquels s’effectuent concrètement les tâches réglementées ?
Lorsque l’IA est intégrée à un processus réglementé, elle peut reprendre les exigences inhérentes à ces environnements : autorisations basées sur les rôles, étapes standardisées, transferts contrôlés et pistes d’audit intégrées dès la conception. Lorsque l’IA reste en dehors de ce processus, les équipes se retrouvent souvent à devoir reconstituer le contexte et les contrôles a posteriori, à copier des informations d’un outil à l’autre, à harmoniser les versions et à reconstituer l’« historique du dossier » lors des revues et des inspections. Cela reste gérable dans le cadre d’un projet pilote, mais devient fragile à grande échelle.
La gestion du cycle de vie d’un médicament cesse d’être facultative dès lors que l’IA est intégrée dans des processus réglementés
La gestion du cycle de vie peut sembler abstraite tant qu’on ne l’a pas mise en perspective avec le fonctionnement de l’IA en environnement de production.
De nouveaux modèles fondamentaux voient le jour. Les prompts, qui découlent des objectifs et des instructions des agents, évoluent. Les sources de connaissances et les données transactionnelles changent. Chacun de ces changements peut modifier subtilement les résultats de l’IA d’une manière qui a son importance dans un contexte réglementé. L’accent mis par les régulateurs sur l’évaluation des performances fondée sur les risques et la gestion du cycle de vie rappelle, dans la pratique, que l’approche « configurer et oublier » n’est pas envisageable dès lors que l’IA intervient dans des activités réglementées.
Un contrôle de source adapté aux audits : non seulement pour le code et les modèles, mais aussi pour les prompts, les instructions destinées aux agents, les modèles et les documents de référence qui influencent les résultats.
Des critères de surveillance et de détection des dérives clairement définis : ce que vous surveillez, à quelle fréquence et ce qui constitue un changement significatif.
Un contrôle des modifications proportionnel au risque : quand une modification nécessite une documentation, une révision, une nouvelle validation ou une annulation.
Une responsabilité clairement établie lorsque les résultats de l’IA sont acceptés, ignorés ou transmis à un niveau supérieur : afin que la responsabilité ne se dissolve pas dans un simple « c’est l’algorithme qui l’a dit ».
Il s’agit là de principes fondamentaux du modèle opérationnel. Ce ne sont pas des éléments facultatifs confiés à une équipe de science des données. Ils se situent à la croisée de la qualité, de la maîtrise des processus métier et de la technologie, c’est-à-dire précisément là où s’inscrit déjà l’exécution réglementée.
Les principes établis par l’EMA et la FDA s’inscrivent dans un cadre réglementaire plus large qui renforce le même message fondamental : une technologie fiable repose sur une mise en œuvre fiable.
En Europe, le calendrier établi par la Commission européenne pour la loi européenne sur l’IA rend les attentes en matière de gouvernance de plus en plus concrètes : la loi sera pleinement applicable à compter du 2 août 2026, tandis que d’autres étapes importantes sont prévues concernant les pratiques interdites et la culture de l’IA (à partir du 2 février 2025) ainsi que les obligations relatives à l’IA à usage général (à partir du 2 août 2025).
Rien de tout cela ne laisse entendre que les régulateurs souhaitent freiner l’innovation. Ces principes communs sont explicitement conçus pour favoriser une utilisation responsable. Les exigences opérationnelles sont de plus en plus strictes, ce qui récompense les organisations qui mettent en place des mécanismes de contrôle pratiques, reproductibles et évolutifs.
Pour la plupart des organisations, l’opportunité à court terme consiste à utiliser les principes de l’EMA et de la FDA comme exigences de conception pour l’environnement d’exploitation de l’IA, alors même que les capacités des produits dans les domaines clinique, réglementaire et de la sécurité continuent de mûrir sur le marché. Cela implique de poser les bases nécessaires pour passer d’applications d’IA isolées à une capacité encadrée dans un environnement d’exécution réglementé. Cela implique aussi de définir les contextes d’utilisation, de les mettre en corrélation avec les risques, de normaliser ce que l’on entend par « informations essentielles » pour la surveillance, et de mettre en place des contrôles tout au long du cycle de vie pour déterminer quels changements interviennent et à quel moment.
C’est également le moment d’exiger des fournisseurs qu’ils soient précis. Il ne s’agit pas de demander « est-ce que cela intègre une IA ? », mais plutôt : où l’IA s’intègre-t-elle dans le workflow, quels documents génère-t-elle, quels éléments font l’objet d’un contrôle des versions, quels éléments sont vérifiables, quels éléments sont surveillés et quels changements sont soumis au contrôle des modifications ?
Les principes de l’EMA et de la FDA vont transformer la manière dont le secteur aborde l’IA : non plus comme un simple module complémentaire, mais comme un élément à part entière du cadre réglementaire régissant la production de données et la surveillance. Les entreprises qui réussiront ne seront pas celles qui mèneront le plus grand nombre de projets pilotes. Ce sont les entreprises pharmaceutiques qui intègrent l’IA dans des processus contrôlés, où les décisions sont vérifiables et traçables et où les changements peuvent être gérés sous supervision, qui transformeront leurs investissements dans l’IA en un véritable avantage opérationnel.