IA agentiqueSanté numériqueAI ActDSIsouveraineté numérique

Les deux IA de la santé : celle qui construit et celle qui assiste

25 février 2026 · Thomas Bozzo

Le CIANum vient de publier sa première note sur l'IA agentique. Le titre de presse qu'il cite en ouverture donne le ton du moment : « Et si demain votre collègue était une IA ? ». Les annonces se multiplient. Les promesses aussi. Des agents qui remplacent des métiers entiers. Des entreprises « sans salariés ». L'automatisation de bout en bout.

En santé, cette frénésie mérite qu'on s'arrête un instant. La question n'est pas « que peut faire l'IA ? ». C'est « que doit-elle faire, et pour qui ? ». Et il se trouve qu'il y a deux réponses à cette question. Deux dimensions de l'IA en santé qui ne se confondent pas.

La vague agentique : de quoi parle-t-on vraiment ?

Un agent IA est un programme capable de décomposer un processus, d'enchaîner des actions et de prendre des décisions en s'appuyant sur des modèles d'intelligence artificielle. C'est la définition qu'en donne le CIANum dans sa note de février 2026, qui propose une échelle à cinq niveaux d'autonomie : de l'automatisation simple de règles prédéfinies jusqu'aux systèmes entièrement autonomes qui apprennent en continu sans validation humaine.

Le cinquième niveau n'est pas atteint aujourd'hui. Le CIANum le dit lui-même : il « fait encore l'objet de travaux de recherche ». Et en santé, il n'est tout simplement pas souhaitable. Quand les erreurs ont des conséquences sur des patients, l'autonomie totale n'est pas un objectif. C'est un risque.

Le terrain réel de l'IA agentique en santé se situe aux niveaux 3 et 4 : des flux de travail où l'IA propose, compare, prépare des décisions, et où l'humain valide, corrige, décide. Cette distinction est fondamentale. Elle sépare le sérieux du marketing.

Et cette IA agentique intervient déjà sur deux fronts distincts.

L'IA qui construit : des outils sur mesure, plus vite, à un juste prix

Le premier front est celui que nous connaissons le mieux chez Ducal, parce que c'est notre quotidien. Les agents IA de code, Claude Code en tête, ont transformé la manière dont on construit des logiciels de santé.

Il y a un an, nous écrivions que la barrière économique du marché hospitalier venait de tomber. Ce qui nécessitait 18 mois et cinq ingénieurs se prototype en quelques semaines avec deux personnes. La génération de code, l'intégration FHIR R4, la mise en conformité HDS, la documentation technique : tout s'accélère d'un ordre de grandeur.

Ce constat tient toujours. La vague agentique l'a même renforcé. Les agents de code sont plus capables, plus fiables, plus rapides qu'il y a douze mois. Cela signifie que des projets qui stagnaient dans les tiroirs deviennent réalisables : un portail de prévention pour un réseau de santé, des formulaires médicaux sur mesure, une plateforme d'éducation thérapeutique complète.

Mais le point crucial est là : l'outil livré au soignant reste un logiciel déterministe. Il fait la même chose à chaque exécution. Il est testable, auditable, certifiable. L'IA a servi à le construire mieux et plus vite. Elle n'est pas dans le cockpit du produit final. L'expert humain guide, valide chaque proposition, et garantit la conformité. C'est l'approche que nous détaillons dans notre charte d'utilisation de l'IA.

Un projet logiciel santé en tête ?

L'approche AI-native permet de réaliser des projets qui semblaient hors budget ou hors délai. Parlons du vôtre.

Discuter de votre projet →

L'IA qui assiste : libérer du temps de soin, pas remplacer le soignant

Le second front est celui qui fait couler le plus d'encre, et qui génère le plus de fantasmes. L'IA intégrée directement dans les applications de santé, au contact des professionnels.

Les cas d'usage pertinents existent : pré-remplissage intelligent de formulaires à partir de données existantes, aide à la structuration de comptes-rendus médicaux, triage automatique de demandes entrantes, rappels patients personnalisés. Ce sont des tâches administratives répétitives qui grignotent le temps de soin. Les automatiser a une valeur directe et mesurable pour les soignants.

Ce qui ne change pas, et ne doit pas changer : le diagnostic, la relation thérapeutique, le consentement éclairé, l'accompagnement du patient. Ce sont des actes fondamentalement humains. Le CIANum le formule avec justesse : « Le travail n'est pas qu'une succession de tâches, mais aussi une place, un rôle dans l'organisation où les interactions humaines sont indispensables. »

Les startups qui promettent de « remplacer le soignant par un agent » font une double erreur. Une erreur technique : l'IA agentique n'est pas assez fiable pour des décisions critiques en autonomie. Et une erreur de positionnement : elles attaquent la seule partie du métier que personne ne veut voir disparaître.

Deux IA, une même exigence de rigueur

Ces deux dimensions, l'IA qui construit et l'IA qui assiste, sont gouvernées par la même exigence. Le CIANum identifie des risques qui s'appliquent aux deux : les effets de cascade, où les erreurs se cumulent entre agents enchaînés ; la dérive d'orchestration, où des agents connectés sans cadre commun produisent des résultats imprévisibles ; et les risques directs sur la sécurité des données.

Le règlement européen sur l'IA (AI Act, UE 2024/1689) en tire les conséquences : les systèmes d'IA en santé sont classés « haut risque ». Les obligations sont claires : transparence, supervision humaine, traçabilité des décisions, gestion des biais, documentation technique.

Pour un acteur comme Ducal, qui construit sur des fondations conformes depuis le premier jour (hébergement HDS souverain, RGPD intégral, PSSI formelle), ces obligations ne sont pas un mur à franchir. Elles sont déjà dans l'architecture. Et c'est précisément cette rigueur qui nous positionne pour intégrer l'IA agentique de manière responsable dans les applications que nous construisons.

Qui maîtrise le déterministe maîtrise mieux le probabiliste. Si vous savez construire un outil auditable, vous savez exactement où injecter de l'IA agentique, et où la contenir. L'inverse n'est pas vrai. Un éditeur qui a « shipé vite » sans conformité devra tout reprendre quand l'AI Act s'appliquera pleinement.

La souveraineté devient d'ailleurs encore plus critique dans un monde agentique. Les agents accèdent à davantage de données, font plus d'appels API, stockent plus de contexte. Un agent IA hébergé sur un cloud américain soumis au Cloud Act, manipulant des données de santé françaises, est un risque juridique que le cadre réglementaire ne tolérera pas longtemps.

Vendre des pelles, pas des miracles

La ruée vers l'or de l'IA agentique bat son plein. Les annonces se succèdent, les levées de fonds s'enchaînent, les promesses enflent. Mais en santé, le miracle n'existe pas. Ce qui existe, ce sont des outils bien construits qui rendent les professionnels plus efficaces.

C'est notre position chez Ducal, et la note du CIANum nous conforte dans cette conviction. Nous construisons des outils pour les métiers de soin. L'IA rend ces outils meilleurs, moins chers, plus rapides à construire, et progressivement plus intelligents dans l'assistance qu'ils offrent au quotidien. Mais l'outil est au service du professionnel, pas l'inverse.

Le cœur du métier de soignant est le lien humain. L'écoute. L'accompagnement. La présence. Aucun agent IA ne remplacera cela, et c'est très bien ainsi. Notre rôle est de leur libérer du temps pour le faire.

Vous construisez un projet numérique en santé ?

Parlons de la manière dont l'IA peut accélérer votre projet sans compromettre la conformité ni la souveraineté.

Prendre rendez-vous →
Thomas Bozzo

Fondateur — Expert santé numérique

Thomas Bozzo

Plus de 10 ans d'expérience dans le numérique en santé. Spécialiste HDS, FHIR, Article 51 et plateformes d'éducation thérapeutique.

LinkedIn

Articles récents

Un projet de digitalisation santé ?

Parlons-en. Nous vous répondons sous 48h avec une première proposition adaptée à votre contexte.

Nous contacter