Le malentendu sur l'IA en santé
Quand on parle d'intelligence artificielle dans le secteur de la santé, l'image qui vient immédiatement est celle de l'IA qui diagnostique, qui trie les patients aux urgences, qui suggère un traitement. Des systèmes autonomes qui prennent des décisions à la place des soignants. C'est le récit dominant dans la presse, dans les conférences et dans les appels d'offres.
Ce récit pose un problème fondamental : ces systèmes sont probabilistes. Ils interprètent, déduisent, estiment. Ils ont raison la plupart du temps. Mais quand ils se trompent sur un diagnostic ou un traitement, les conséquences ne sont pas un bug mineur. Ce sont des patients.
Le cadre réglementaire européen (AI Act) a d'ailleurs classé ces systèmes dans la catégorie "haut risque", avec des obligations lourdes d'évaluation, de transparence et de supervision humaine. Et pour cause : confier des décisions médicales à un modèle probabiliste est un pari que peu d'établissements sont prêts à prendre, à juste titre.
Cela ne veut pas dire que l'IA probabiliste n'a pas sa place en santé. En imagerie médicale, en recherche clinique ou en génomique, les modèles d'apprentissage automatique apportent une valeur réelle et documentée. Mais pour les outils opérationnels qui structurent le quotidien des soignants — gestion des parcours patients, formulaires cliniques, coordination entre professionnels — le risque probabiliste n'est ni nécessaire ni souhaitable.
Chez Ducal, nous avons choisi une autre voie. L'IA n'est pas notre produit. Elle est notre méthode de travail.
Deux usages de l'IA, deux niveaux de risque
L'IA comme décideur : le modèle probabiliste
Un agent IA qui analyse un dossier patient pour suggérer un diagnostic est un système probabiliste. Il s'appuie sur des modèles statistiques entraînés sur des données historiques. Son fonctionnement est, par nature, non déterministe : pour la même entrée, il peut produire des résultats différents selon le contexte, la version du modèle ou des paramètres invisibles pour l'utilisateur.
Les risques sont documentés :
- Hallucinations : le modèle génère une réponse plausible mais fausse, avec une confiance élevée
- Biais : les données d'entraînement reflètent des inégalités historiques (genre, origine, âge)
- Opacité : expliquer pourquoi le modèle a pris une décision donnée reste un défi technique
- Reproductibilité : difficile de garantir qu'un même cas produira toujours le même résultat
Pour un RSSI ou un DPO, ces caractéristiques sont un cauchemar de conformité. Comment auditer un système dont le comportement varie ? Comment certifier un outil qui peut halluciner ?
L'IA comme constructeur : le modèle déterministe
Notre approche est fondamentalement différente. Nous utilisons l'intelligence artificielle pour construire des logiciels, pas pour remplacer des humains. Le vibe coding professionnel consiste à guider l'IA pour produire du code, sous supervision experte, avec des contrôles de sécurité automatisés à chaque étape.
Le résultat ? Un logiciel classique. Déterministe. Prévisible. Pour la même entrée, il produit toujours le même résultat. Il peut être testé, audité, certifié.
L'IA a accéléré sa construction. Mais le produit final est du code traditionnel, exécuté de manière déterministe, sans modèle probabiliste embarqué. C'est un formulaire qui calcule un score de la même façon à chaque fois. Un tableau de bord qui affiche les mêmes données pour les mêmes requêtes. Un parcours patient qui suit les mêmes étapes dans le même ordre.
L'IA est le marteau du menuisier, pas le robot qui décide où mettre les meubles. Le menuisier reste maître de son ouvrage.
Augmenter les métiers, pas les remplacer
Le vrai besoin des soignants
Les professionnels de santé n'ont pas besoin d'une IA qui pense à leur place. Ils ont besoin d'outils adaptés à leur quotidien. Et c'est précisément ce qui manque.
Le paradoxe du numérique en santé est cruel : les soignants utilisent des logiciels conçus pour des besoins génériques, qu'ils doivent détourner pour les adapter à leur pratique. Un programme d'éducation thérapeutique géré sur des tableurs Excel. Des questionnaires patients distribués sur papier puis ressaisis manuellement. Une coordination entre professionnels par échange d'emails non sécurisés.
Pourquoi ? Parce que développer un outil sur mesure coûtait trop cher. Un logiciel adapté aux besoins spécifiques d'un programme ETP en addictologie, d'une CPTS en milieu rural ou d'un réseau de soins en gérontologie nécessitait des budgets et des délais que peu d'établissements pouvaient se permettre.
Ce que change l'IA dans l'équation
L'approche AI-native change cette donne. En réduisant significativement le temps de développement, elle rend possible la création d'outils sur mesure à des coûts accessibles.
Concrètement, cela signifie :
- Des formulaires médicaux adaptés au protocole exact de votre programme, pas un formulaire générique que vous devez détourner
- Un tableau de suivi patient qui affiche les indicateurs pertinents pour votre spécialité, pas un dashboard universel noyé de données inutiles
- Un parcours d'éducation thérapeutique qui suit la logique pédagogique de votre équipe, pas un LMS conçu pour la formation en entreprise
- Un annuaire territorial qui reflète l'organisation réelle de votre territoire, pas une base de données nationale figée
Prenons un exemple concret. Un programme d'ETP en diabétologie utilise un questionnaire de diagnostic éducatif avec des scores validés scientifiquement, qui orientent le patient vers des parcours pédagogiques différenciés selon son profil. En développement classique, adapter un LMS générique à ce workflow spécifique prenait des mois et un budget à six chiffres. Avec l'approche AI-native, l'outil est construit en quelques semaines, exactement calibré sur le protocole de l'équipe soignante. Et il est déterministe : le même score produit toujours la même orientation.
Ces outils n'existaient pas parce qu'ils étaient trop coûteux à développer. Ils deviennent réalisables parce que l'IA accélère le développement sans compromettre la qualité ni la conformité.
Un outil sur mesure pour votre pratique ?
Nous construisons des logiciels adaptés à votre métier, pas des agents qui le remplacent. Parlons de votre besoin.
Discuter de votre projet →L'avantage conformité du déterministe
Auditable par conception
Un logiciel déterministe est auditable. Chaque comportement est documenté, chaque flux de données est traçable, chaque calcul est reproductible. Pour un auditeur HDS ou un contrôleur CNIL, c'est exactement ce qu'il faut : un système dont on peut prouver le fonctionnement.
Un agent probabiliste ? L'auditeur demande "pourquoi cette décision ?" et la réponse est "le modèle a estimé que…". Ce n'est pas une preuve. C'est une probabilité.
Testable et certifiable
Un outil déterministe peut être soumis à des tests exhaustifs. Pour chaque scénario d'entrée, on vérifie que la sortie est correcte. On peut prouver l'absence de comportement inattendu. On peut certifier que l'outil respecte les exigences du RGPD : minimisation des données, droit à l'effacement, consentement, traçabilité.
Essayez de certifier un agent IA de la même manière. Le nombre de scénarios possibles est infini, les réponses varient, et le modèle évolue à chaque mise à jour. Le cadre réglementaire impose des obligations croissantes sur ces systèmes, précisément parce qu'ils sont difficiles à contrôler.
Compatible avec les exigences HDS, RGPD et AI Act
Les outils que nous construisons sont hébergés sur des infrastructures certifiées HDS et qualifiées SecNumCloud. Ils passent par un pipeline de sécurité automatisé avant chaque mise en production. Chaque accès aux données de santé est tracé, chaque secret est géré dans un coffre-fort dédié.
Cette conformité est possible parce que le logiciel est déterministe. On sait exactement ce qu'il fait, on peut prouver ce qu'il ne fait pas, et on peut documenter chaque mécanisme de protection pour un audit.
Et au regard de l'AI Act, la distinction est décisive. Un agent IA qui prend des décisions cliniques est classé "haut risque" et soumis à des obligations lourdes de conformité, de documentation et de supervision. Un logiciel déterministe construit avec l'aide de l'IA relève du risque minimal : l'intelligence artificielle a servi d'outil de développement, elle n'est pas embarquée dans le produit final. Pour un DPO ou un RSSI, c'est une charge réglementaire incomparablement plus légère.
Ce qu'il faut retenir
L'intelligence artificielle qui a le plus d'impact en santé n'est pas celle qui remplace les soignants. C'est celle qui permet de leur construire des outils qui n'existaient pas avant : sur mesure, adaptés à leur quotidien, conformes aux exigences réglementaires.
Ces outils sont des logiciels classiques, déterministes et auditables. L'IA a accéléré leur construction, mais le produit final est prévisible, testable et certifiable. Pas de modèle probabiliste embarqué, pas de risque d'hallucination, pas de boîte noire.
Chez Ducal, c'est cette approche que nous défendons. Nous utilisons l'IA pour développer plus vite et mieux, avec une sécurité renforcée et une conformité intégrée. Le résultat : des outils qui s'adaptent à votre métier, pas des agents qui prétendent le faire à votre place. Et un accompagnement continu pour que ces outils évoluent avec vos besoins.
