L'IA appliquée à la santé
Pexels

Dans une étude menée par des chercheurs de l'École de médecine Icahn et de l'Université du Michigan, l'impact de la mise en œuvre de modèles prédictifs dans le domaine des soins de santé a été examiné de près.

Les résultats de la recherche, détaillés dans le numéro en ligne du 9 octobre d'Annals of Internal Medicine, révèlent que les modèles d'apprentissage automatique, qui se sont révélés remarquablement prometteurs dans le domaine des soins de santé, peuvent parfois devenir victimes de leur propre succès. L'étude a évalué comment l'utilisation de ces modèles pour influencer les décisions cliniques peut modifier les hypothèses mêmes sur lesquelles ils ont été formés, souvent avec des conséquences inattendues.

L'auteur principal, Akhil Vaid, MD, instructeur clinique de médecine basée sur les données et numérique (D3M) à Icahn Mount Sinai, explique : " Nous voulions explorer ce qui se passe lorsqu'un modèle d'apprentissage automatique est déployé dans un hôpital et autorisé à influencer les décisions des médecins. pour le bénéfice global des patients. Par exemple, nous avons cherché à comprendre les conséquences plus larges lorsqu'un patient est épargné par des conséquences indésirables telles que des lésions rénales ou la mortalité.

"Les modèles d'IA possèdent la capacité d'apprendre et d'établir des corrélations entre les données entrantes des patients et les résultats correspondants, mais l'utilisation de ces modèles, par définition, peut modifier ces relations. Des problèmes surviennent lorsque ces relations modifiées sont réintégrées dans les dossiers médicaux."

L'étude a mené des simulations approfondies de scénarios de soins intensifs dans deux grands établissements de santé : le système de santé Mount Sinai à New York et le centre médical Beth Israel Deaconess à Boston. L'analyse a porté sur 130 000 admissions en soins intensifs et s'est concentrée sur trois scénarios clés :

  1. Recyclage des modèles après utilisation initiale : la pratique actuelle suggère de recycler les modèles d'apprentissage automatique pour remédier à la dégradation des performances au fil du temps. Même si le recyclage peut dans un premier temps améliorer les performances en s'adaptant aux conditions changeantes, l'étude a révélé un résultat paradoxal : une dégradation accrue. Cela se produit parce que le recyclage perturbe les relations apprises entre la présentation du patient et les résultats, qui étaient à la base de l'efficacité du modèle.
  2. Créer un nouveau modèle après qu'un modèle ait déjà été utilisé : l'utilisation d'un modèle d'apprentissage automatique pour prédire les résultats, tels que la septicémie, peut éviter aux patients des événements indésirables. Cependant, ce modèle vise également à prévenir ces conséquences indésirables, notamment la mort. Tous les nouveaux modèles développés pour prédire la mort hériteront désormais des mêmes relations perturbées qu'auparavant. Cette incertitude concernant les relations exactes entre les différents résultats rend inappropriée l'utilisation des données de patients ayant reçu des soins influencés par des modèles d'apprentissage automatique pour former de nouveaux modèles.
  3. Utilisation simultanée de deux modèles prédictifs : lorsque deux modèles effectuent des prédictions simultanées, le fait de s'appuyer sur un ensemble de prédictions rend l'autre obsolète. Cela signifie que les prévisions doivent être basées sur des données récemment collectées, ce qui peut être coûteux ou peu pratique. L'utilisation simultanée de modèles complique encore davantage le paysage déjà complexe de la prise de décision en matière de soins de santé.

Le co-auteur principal Karandeep Singh, MD, professeur agrégé d'apprentissage des sciences de la santé, de médecine interne, d'urologie et d'information à l'Université du Michigan, explique : " Nos résultats renforcent les complexités et les défis liés au maintien des performances des modèles prédictifs en utilisation clinique active. "

"Les performances des modèles peuvent chuter considérablement si la composition des populations de patients change. Cependant, les mesures correctives convenues peuvent s'effondrer complètement si nous ne prêtons pas attention à ce que font les modèles - ou plus exactement, à ce dont ils apprennent."

Le Co-auteur principal Girish Nadkarni, MD, MPH, Irene et Dr Arthur M. Fishberg Professeur de médecine à Icahn Mount Sinai, directeur de l'Institut Charles Bronfman de médecine personnalisée et chef du système de médecine numérique et basée sur les données, souligne la nécessité pour une approche réfléchie et mesurée de l'utilisation des modèles d'apprentissage automatique dans le domaine de la santé.

Il déclare : " Nous ne devons pas considérer les modèles prédictifs comme peu fiables. Il s'agit plutôt de reconnaître que ces outils nécessitent une maintenance, une compréhension et une contextualisation régulières. Négliger leur performance et le suivi de leur impact peut nuire à leur efficacité.

"Nous devons utiliser les modèles prédictifs de manière réfléchie, comme n'importe quel autre outil médical. Les systèmes de santé apprenants doivent tenir compte du fait que l'utilisation aveugle et les mises à jour de tels modèles entraîneront de fausses alarmes, des tests inutiles et une augmentation des coûts."

Le Dr Vaid suggère des mesures pratiques pour atténuer les conséquences involontaires des modèles d'apprentissage automatique dans le domaine des soins de santé. "Nous recommandons que les systèmes de santé mettent rapidement en œuvre un système pour suivre les individus touchés par les prédictions de l'apprentissage automatique et que les agences gouvernementales compétentes émettent des lignes directrices."

"Ces résultats sont également applicables en dehors des contextes de soins de santé et s'étendent aux modèles prédictifs en général. En tant que tel, nous vivons dans un monde de modèle-manger-modèle où tout modèle naïvement déployé peut perturber le fonctionnement des modèles actuels et futurs et éventuellement se rendre inutile. ".