Accident médical lié à une IA d'aide au diagnostic : la nouvelle zone grise
Depuis deux ans, les hôpitaux français déploient à marche forcée des logiciels d'IA d'aide au diagnostic. Quand tout va bien, on parle d'innovation. Quand un accident médical survient à cause d'une alerte manquée ou d'un mauvais score de risque, soudain plus personne ne sait qui répond : le médecin, l'éditeur, l'hôpital, ou... personne.
Une révolution technologique installée en catimini dans vos dossiers
On vous l'a rarement expliqué clairement, mais de plus en plus de décisions médicales passent désormais à travers des algorithmes : tri aux urgences, interprétation d'ECG, analyse de scanners, prédiction de complications post‑opératoires.
Les communiqués ministériels parlent d'« aide » au diagnostic, de « soutien » au clinicien. Sur le terrain, la frontière est nettement plus floue : dans un service débordé, l'avis algorithmique finit souvent par devenir la décision par défaut. Surtout la nuit, surtout quand personne n'a le temps de relire.
Dans son rapport 2023, la Haute Autorité de santé consacre d'ailleurs un chapitre entier à ces dispositifs, avec une nuance qui n'est pas anodine : l'IA est présentée comme un « dispositif médical » au sens juridique du terme. Autrement dit, quand elle se trompe, on n'est plus dans la simple erreur humaine isolée.
Quand l'IA se trompe, tout le monde regarde ailleurs
Scénario très banal en 2026 : vous arrivez aux urgences avec une douleur thoracique atypique. L'ECG est analysé en temps réel par un logiciel, qui classe le tracé « non suspect ». Le jeune interne, rassuré, vous garde en observation courte et vous renvoie chez vous. Douze heures plus tard, infarctus massif, séquelles lourdes.
Au moment d'analyser ce dommage corporel, tout le monde semble s'accorder sur un point : c'est « malheureux », mais « difficilement évitable ». Et surtout, détail qui tue, la trace de la décision algorithmique a souvent disparu dans les limbes des serveurs.
Vous n'aurez accès qu'à l'ECG brut et à quelques lignes de compte rendu, soigneusement écrites après coup. L'algorithme qui a classé votre situation comme banale, lui, devient soudain un fantôme juridico‑technique.
Le même mécanisme est à l'œuvre pour les IA d'analyse radiologique, utilisées pour détecter des embolies pulmonaires, des fractures discrètes, ou des tumeurs débutantes. Quand l'outil « ne voit » rien, tout le service est tenté de lui faire confiance. Et lorsque, six mois plus tard, le diagnostic tombe enfin, le récit est déjà réécrit.
ONIAM, CCI, responsabilité : un cadre juridique en retard d'une guerre
Le droit français de l'accident médical repose encore largement sur des scénarios classiques : erreur de geste, défaut d'information, infection nosocomiale, aléa thérapeutique. Toute la mécanique CCI / ONIAM a été pensée pour ce monde‑là. Pas pour celui des algorithmes propriétaires, des mises à jour silencieuses et des scores de risque opaques.
Devant une Commission de conciliation et d'indemnisation (CCI), le réflexe sera donc de retomber sur la responsabilité individuelle du médecin :
- a‑t-il pris une décision « conforme aux données acquises de la science » ?
- a‑t-il suffisamment surveillé, réévalué, croisé les signaux ?
- a‑t-il suivi les recommandations officielles ?
La place du logiciel, du fabricant, du paramétrage local, est presque toujours reléguée au second plan. Pourtant, du point de vue de la victime, c'est bien cette chaîne technico‑organisationnelle qui a fait dérailler la prise en charge.
Le Conseil de l'Europe, dans ses travaux récents sur l'IA en santé, insiste justement sur cette responsabilité partagée. Mais il faudra des années pour que cela infuse réellement nos pratiques indemnitaires.
Le piège du consentement flou : « vous savez, tout est informatisé... »
Autre problème majeur : l'information du patient. On vous fait signer des formulaires généraux, on vous parle de « dossier informatisé », de « traitement numérique des données », parfois vaguement de « dispositifs innovants ». En réalité, aucune phrase claire ne vous dit : « Votre diagnostic repose, en partie, sur un algorithme d'IA évalué dans telles conditions, avec tel taux d'erreurs connu. »
En termes de droit, c'est un angle mort criant. La loi impose une information loyale, claire, adaptée au patient. Or, comment consentir réellement à une stratégie thérapeutique si l'on ignore que la décision clé est fortement médiée par un logiciel d'aide au diagnostic ?
Dans un dossier bien mené, ce manquement peut devenir un levier d'indemnisation non négligeable, notamment pour les préjudices d'angoisse et de perte de chance diagnostique. Mais encore faut‑il que l'expertise médicale de victimes ait identifié cette dimension dès le départ.
Comment repérer qu'une IA a (peut‑être) pesé sur votre accident médical
La plupart des patients n'ont aucune idée du degré de numérisation de leur parcours de soins. Pourtant, quelques indices simples peuvent alerter :
- aux urgences, votre triage a été fait via une tablette ou un logiciel qui calcule un score de gravité ;
- votre scanner ou IRM comporte une mention de « post‑traitement automatisé », « analyse assistée par ordinateur » ou un logo d'éditeur de logiciel ;
- un médecin vous dit qu'il « attend le retour de l'analyse » avant de valider le compte rendu ;
- votre ECG, votre fond d'œil ou vos clichés pulmonaires sont analysés « en direct » par l'ordinateur avec un résultat immédiat.
Dans tous ces cas, il est crucial de demander formellement, par écrit, à accéder à votre dossier complet, en rappelant les droits que le RGPD vous reconnaît sur vos données de santé. Les recommandations de la CNIL, accessibles sur cnil.fr, sont très claires à ce sujet, même si les établissements les appliquent encore de façon très inégale.
Ce n'est qu'à partir de ce matériau brut - journaux de connexion, traces de calcul de scores, commentaires auto‑générés - qu'un médecin‑conseil de victimes pourra reconstruire honnêtement la chaîne des décisions.
Cas d'usage : l'algorithme qui n'a « rien vu » sur le scanner
Un exemple concret, à peine romancé. Femme de 54 ans, antécédents cardiovasculaires modérés, consulte aux urgences pour essoufflement et douleur thoracique. Scanner thoracique réalisé pour éliminer une embolie pulmonaire. L'examen est lu « avec aide informatique » : un logiciel surligne automatiquement les zones suspectes.
Rien n'est signalé par l'outil, le radiologue conclut à l'absence d'embolie. La patiente sort. Trois jours plus tard, retour en détresse respiratoire grave, embolie massive cette fois, avec séquelles neurologiques lourdes après une réanimation compliquée.
Lorsqu'un avocat saisit la CCI, l'établissement brandit la lecture humaine : « Le radiologue n'a pas commis de faute caractérisée, les images étaient difficiles, le tableau clinique encore peu typique. » L'IA, elle, disparaît du dossier, comme si elle n'avait jamais existé.
Ce n'est qu'après une contre‑expertise minutieuse, avec récupération des logs du logiciel et comparaison avec les études de validation publiées, qu'une vérité moins confortable émerge : sur ce type de scanner, dans ces conditions techniques, l'algorithme présentait un taux de faux négatifs préoccupant. Un taux que personne n'avait jugé bon d'expliciter au patient.
Dans un dossier ainsi déconstruit, le débat ne se limite plus à « radiologue fautif ou non ». Il s'élargit à la manière dont l'établissement a introduit l'outil, formé les équipes, informé les patients, réagi aux alertes de performance. Et l'indemnisation prend tout à coup une autre dimension.
Pourquoi une expertise classique ne suffit plus
Une expertise médico‑légale traditionnelle se concentre sur trois axes : la chronologie des symptômes, les gestes médicaux, et la concordance (ou non) avec les recommandations scientifiques. Dans un monde saturé d'IA, ce triptyque devient insuffisant.
L'expert de victimes doit désormais :
- identifier quels dispositifs logiciels ont été utilisés à chaque étape ;
- vérifier leur statut réglementaire exact (marquage CE, classe de risque, conditions d'utilisation) ;
- analyser si le médecin s'est reposé de façon excessive sur ces outils, ou s'il les a remis en question quand c'était nécessaire ;
- croiser cette analyse technico‑juridique avec vos séquelles réelles, physiques et psychiques.
Ce travail n'a rien d'abstrait. Il influe directement sur la reconnaissance ou non d'une perte de chance, sur la qualification d'une faute, et in fine sur les montants proposés. Comme pour une erreur aux urgences, mais avec une couche supplémentaire d'opacité qui, si elle n'est pas attaquée, profite toujours à la défense.
IA « responsable » : un discours qui ne vous protège pas encore
On nous parle beaucoup d'« IA éthique », de comités d'évaluation, de chartes rassurantes. La réalité, pour l'instant, c'est que cette rhétorique protège surtout les institutions et les industriels. Rarement les patients déjà blessés.
Dans un dossier d'accident médical lié à une IA, ne vous attendez pas à ce que l'hôpital vienne spontanément reconnaître un défaut de paramétrage ou une dépendance excessive à l'algorithme. Il faudra souvent aller le chercher, pièce par pièce, avec une stratégie offensive :
- exiger l'accès complet au dossier médical, y compris les traces informatiques ;
- détailler, avec un médecin‑conseil indépendant, les décisions clés où l'IA a pu orienter le parcours ;
- mettre en lumière les contradictions entre le discours « d'aide » et la réalité d'un suivi quasi automatisé ;
- porter ce dossier, solidement étayé, devant la CCI ou le juge, sans se laisser enfermer dans la seule faute « individuelle ».
Dans ce type de combat, la France entière est concernée, DOM‑TOM compris, puisque les mêmes logiciels sont déployés partout avec une fascination parfois naïve pour la technologie.
Ne pas subir l'IA en silence : reprendre la main sur votre dossier
Si vous avez le sentiment diffus qu'un logiciel a pesé sur votre prise en charge - une alerte non prise en compte, un score rassurant malgré des symptômes graves, un compte rendu standardisé à l'excès - il ne faut pas l'enterrer sous le tapis. Ce n'est pas être « complotiste » que de poser les bonnes questions. C'est simplement refuser que votre dossier soit lu avec dix ans de retard sur les pratiques réelles de l'hôpital.
Un médecin‑conseil de victimes qui connaît le terrain hospitalier, les procédures CCI et les arcanes des dispositifs médicaux peut vous aider à sortir de ce brouillard : reconstituer patiemment la chronologie, interroger vos images, vos examens, vos comptes rendus, identifier les zones où l'IA s'est invitée sans jamais être nommée.
On ne changera pas la marche du progrès technologique avec un seul dossier. Mais on peut, très concrètement, rééquilibrer un rapport de force qui, aujourd'hui, penche systématiquement du côté des éditeurs de logiciels et des établissements. Si vous sentez que votre histoire médicale a été confisquée par une machine et quelques signatures en bas de page, il est temps de la reprendre en main en sollicitant une contre‑expertise structurée. L'IA restera, mais au moins, elle ne sera plus seule à raconter ce qui vous est arrivé.