C’est une première approche de la révolution qui pourrait être déclenchée par l’intelligence artificielle dans les soins de santé, qui nous est proposée par cette équipe de l’Icahn School of Medicine at Mount Sinai (New York). Cependant cette première perspective, obtenue par la modélisation, nous permet d’en appréhender à la fois l’ampleur et les limites. Des conclusions, présentées dans les Annals of Internal Medicine, qui soulignent la nécessité d’une utilisation très prudente de l‘IA dans la prédiction des risques et les soins.
Les modèles fondés sur l’apprentissage automatique dans le domaine des soins de santé peuvent être victimes de leur propre succès, concluent paradoxalement ces chercheurs L’Icahn et de l’Université du Michigan. Car en évaluant l’impact de la mise en œuvre de modèles prédictifs, ils concluent que l’utilisation de modèles pour ajuster la manière dont les soins sont dispensés peut modifier les hypothèses de base sur lesquelles les modèles ont été « formés », et souvent de manière contreproductive.
« Nous avons cherché à explorer ce qui se passe lorsqu’un modèle d’apprentissage automatique est déployé dans un hôpital et influence les décisions des médecins », résume l’un des auteurs principaux, le Dr Akhil Vaid, instructeur clinique de médecine numérique : « Les modèles d’IA possèdent la capacité d’apprendre et d’établir des corrélations entre les données entrantes des patients et les résultats correspondants, mais l’utilisation de ces modèles, par définition, modifie ces relations. Des problèmes surviennent lorsque ces relations modifiées sont consignées dans les dossiers médicaux ».
L’étude a simulé des scénarii de soins intensifs dans 2 grands établissements de soins de santé et analysé 130.000 admissions en soins intensifs. Les chercheurs ont étudié 3 scénarii clés :
- Recyclage ou révision du modèle d’IA après la première utilisation : la pratique actuelle suggère de recycler les modèles pour remédier à la dégradation de ses performances au fil du temps. Le recyclage peut initialement améliorer les performances en s’adaptant aux conditions changeantes. Cependant, l’étude révèle que paradoxalement, ce recyclage conduire à une dégradation supplémentaire en perturbant les relations apprises entre l’entrée des données et le résultat.
- Créer un nouveau modèle après en avoir déjà utilisé un : suivre les prédictions d’un modèle peut épargner aux patients des conséquences indésirables telles que la septicémie. Le décès peut suivre une septicémie et le modèle fonctionne efficacement pour prévenir les deux. Tout nouveau modèle développé à l’avenir pour prédire le décès est donc perturbé par cette réduction du taux de décès, permise par le premier modèle. En conclusion, l’étude montre que toutes les données provenant de patients dont les soins ont déjà été influencés par l’apprentissage automatique peuvent être inappropriées pour former un nouveau modèle.
- Utiliser simultanément 2 modèles prédictifs : lorsque 2 modèles effectuent des prédictions simultanées, l’utilisation d’un ensemble de prédictions rend l’autre obsolète. Par conséquent, les prévisions doivent être basées sur des données récemment collectées, ce qui peut être coûteux ou peu pratique.
Cette analyse révèle ainsi des complexités et des défis liés au maintien des performances des modèles prédictifs d’IA en pratique clinique.
Les performances de ces modèles peuvent chuter considérablement et également avec des changements de composition des populations de patients. Les mesures correctives peuvent s’avérer complètement inappropriées sans surveillance et critique continues de ce que nous apprennent ces modèles.
« Nous ne devrions pas considérer les modèles prédictifs comme peu fiables », déclarent néanmoins les chercheurs. « Il s’agit plutôt de reconnaître que ces outils nécessitent une véritable « maintenance », ainsi qu’une compréhension et une contextualisation régulières. Négliger leur performance et le suivi de leur impact peut nuire à leur efficacité. Nous devons utiliser les modèles prédictifs de manière réfléchie, comme tout autre outil médical. Les systèmes de santé apprenants doivent être conscients du fait que l’utilisation aveugle de ces modèles entraîneront de fausses alarmes, des tests inutiles, des erreurs médicales sans compter l’augmentation des coûts ».
Source: Annals of Internal Medicine 10 Oct, 2023 DOI: 10.7326/M23-0949 Implications of the Use of Artificial Intelligence Predictive Models in Health Care Settings: A Simulation Study
Plus sur l’IA en santé
Équipe de rédaction SantélogNov 8, 2023Équipe de rédaction Santélog