L'utilisation de l'intelligence artificielle et de l'apprentissage automatique est un domaine en pleine expansion dans les soins de santé. Cependant, compte tenu des enjeux, il s'agit également d'un domaine qui nécessite de la prudence et de la considération, même si la technologie se développe à une vitesse rapide. Une série de trois articles publiés récemment dans le Journal de l'Association médicale canadienne, dont deux sont coécrits par Russ Greiner (professeur à l'Université de l'Alberta), membre d'Amii et titulaire de la chaire d'IA de l'ICRA au Canada, examine certains des défis potentiels liés à l'adoption de l'IA dans le domaine des soins de santé, ainsi que certaines des solutions et approches possibles pour les relever.
Cet article est le premier d'une série de trois articles consacrés à ces défis, en commençant par les pierres d'achoppement spécifiques au développement de l'IA pour travailler avec les prestataires de soins de santé. La partie suivante explorera les questions d'explicabilité et de confiance en ce qui concerne les outils d'IA médicale, tandis que la troisième partie se penchera sur certaines leçons du monde réel tirées de l'intégration de l'apprentissage automatique dans un hôpital en activité.
Du point de vue de Greiner, la question n'est pas de savoir si l'apprentissage automatique aura un impact important sur les soins de santé - c'est déjà le cas. l'apprentissage automatique aura un impact important sur les soins de santé - c'est déjà le cas. Le nombre d'articles et d'études portant sur l'IA augmente de façon exponentielle, dit-il, et rien ne laisse présager un ralentissement.
"L'impact positif est énorme. Les outils d'IA peuvent trouver des moyens efficaces de diagnostiquer les maladies, de gérer les maladies, de traiter les maladies", dit Greiner. "Tout cela n'est pas seulement une possibilité, mais a déjà commencé à se produire".
Toutefois, selon lui, certains professionnels de la santé hésitent à s'approprier pleinement les avantages potentiels des outils d'IA, ce qui n'est pas du tout surprenant compte tenu des enjeux.
"Si je fais une erreur dans la conception d'un jeu vidéo, je peux perdre un peu d'argent. Mais si je fais une erreur en diagnostiquant ou en traitant un patient, cela peut être fatal", dit-il. "Je suis donc heureux que la communauté médicale soit conservatrice, mais cela signifie que les nouvelles idées mettent du temps à arriver sur le terrain."
Il est important d'être conscient de certains des défis spécifiques auxquels les outils de diagnostic et de traitement de l'IA seront confrontés lorsqu'ils seront déployés et utilisés sur le terrain. Dans le document, Greiner et ses co-auteurs soulignent deux obstacles majeurs : les erreurs de distribution et l'attribution incorrecte de caractéristiques. Ces deux problèmes peuvent amener les outils d'apprentissage automatique à produire des modèles qui risquent de ne pas fonctionner dans le monde réel...
Se concentrer sur les meilleures données
Un agent d'apprentissage automatique est à bien des égards comme une ardoise vierge ; il ne connaît que ce qu'il a observé. Les erreurs hors distribution se produisent lorsqu'on demande à l'IA d'interpréter quelque chose qu'elle n'a pas encore appris. Un modèle qui a été entraîné sur des milliers d'images de radiographies de poumons fera probablement un bon travail d'interprétation d'une nouvelle image de poumon, mais pas si on lui demande d'analyser l'image d'un cœur. Pire, il pourrait même ne pas savoir qu'il a fait une erreur ; comment le pourrait-il : étant donné qu'il n'a vu que des poumons, il va tout naturellement essayer d'interpréter tout ce qu'il voit comme un poumon.
Des erreurs hors distribution plus subtiles constituent également un problème. Un modèle d'IA peut être entraîné sur des radiographies claires de poumons pendant son développement. Mais dans le monde réel de la médecine, les radiographies peuvent être surexposées ou floues, ce qui peut conduire à des diagnostics erronés si l'on ne prend pas garde à la façon dont la machine traite les données imparfaites. D'autres problèmes se posent lorsque l'IA rencontre des maladies qu'elle n'a jamais vues auparavant et qu'elle essaie de les intégrer dans son expérience limitée.
Un problème similaire est celui de l'attribution incorrecte des caractéristiques. L'apprentissage automatique trouve souvent "le modèle le plus simple qui explique les données observées", écrit Greiner. Cela peut conduire l'outil à se concentrer sur certains éléments tout en ignorant des informations importantes. Par exemple, imaginez une machine entraînée sur un ensemble d'images cardiaques provenant de plusieurs hôpitaux, dont l'un est spécialisé dans une certaine maladie. Comme cet hôpital spécialisé peut avoir une proportion plus élevée d'images de cette maladie, il est possible que l'IA s'entraîne à poser un diagnostic en se basant principalement sur l'hôpital d'où provient l'image, tout en ignorant les détails de ce cœur spécifique. Si ce modèle sera précis sur cet ensemble de données spécifique, il ne sera pas généralisable.
Une meilleure formation pour de meilleurs résultats
Bien que de sérieux problèmes doivent être surmontés, M. Greiner estime qu'ils ne sont pas insurmontables. En faisant attention à la façon dont les outils d'IA sont formés, on réduira le risque de ce genre d'erreurs. Il note que la plupart des ensembles de données médicales sont très petits et peuvent se concentrer sur un lieu géographique ou un groupe démographique unique, ce qui rend ces problèmes plus probables. Un ensemble de données diversifié est un bon début. Et si cela n'est pas possible, les chercheurs et les médecins doivent être conscients que l'outil pourrait ne fonctionner que sur l'ensemble restreint de cas sur lesquels il a été formé.
"Si vous voulez qu'il fonctionne à Edmonton, à Jarakatra et à Moscou, vous devez l'entraîner sur les données de ces endroits", explique-t-il.
"L'histoire médicale est remplie de données provenant d'hommes caucasiens et appliquées ensuite à des patients noirs et asiatiques, ou à des femmes. Alors que le modèle formé pourrait fonctionner, il y a de fortes chances qu'il ne fonctionne pas."
Parmi les autres options permettant d'accroître la facilité d'utilisation de l'IA dans le secteur des soins de santé, citons la conception de tests de formation visant spécifiquement à détecter les erreurs de distribution ou les caractéristiques incorrectes avant que l'outil ne soit prêt pour le monde réel. L'explicabilité, c'est-à-dire le fait que le raisonnement qui sous-tend la décision de l'IA soit clairement exposé d'une manière que les humains peuvent interpréter, peut également constituer un élément important de l'équation. Bien que cela ne soit pas sans poser de problèmes, comme nous le verrons dans la prochaine partie de cette série.