Nouvelles
Dans quelle mesure les gens sont-ils susceptibles de faire confiance au diagnostic d'un médecin numérique ? C'est l'une des questions pressantes que se pose Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada chez Amii, alors que l'intelligence artificielle fait de plus en plus partie intégrante des soins de santé.
La technologie a atteint un point où les machines peuvent surpasser les médecins humains dans diverses tâches spécifiques. Pourtant, les recherches montrent que les patients et les cliniciens hésitent à faire confiance aux systèmes d'IA médicale. Selon M. Greiner, l'une des raisons de ce manque de confiance est que les gens ne sont souvent pas à l'aise lorsqu'ils reçoivent un diagnostic seul. Au contraire, nous voulons naturellement savoir comment le médecin est parvenu à ses conclusions.
"Lorsque nous parlons à un médecin, il nous donne une histoire, une explication : ce qu'il pense et pourquoi", dit Greiner.
"Et nous faisons beaucoup moins confiance aux ordinateurs qui n'expliquent pas les choses qu'aux personnes."
La première partie de cette série a examiné certains des obstacles techniques spécifiques à l'intégration de l'intelligence artificielle dans les soins de santé, sur la base de travaux récents publiés par Greiner et de nombreux collègues dans le Journal de l'Association médicale canadienne. Ce deuxième article se penche sur différents défis liés à l'acceptation de l'IA médicale : la confiance et l'explicabilité.
"Les gens supposent que le monde est simple, avec seulement des combinaisons simples de quelques caractéristiques. S'il l'était, nous n'aurions pas besoin d'outils complexes d'apprentissage automatique."
Russ Greiner
Une IA explicable est une intelligence artificielle qui est transparente quant à la manière dont elle est parvenue à une décision. Cela signifie que les gens peuvent voir les calculs de la machine et, tout aussi important, comprendre pourquoi ils ont été faits. Un modèle d'IA explicable qui prédit le risque de maladie cardiaque d'un patient, par exemple, pourrait montrer exactement le poids qu'il accorde à la tension artérielle, aux antécédents familiaux et aux habitudes de vie du patient. Selon M. Greiner, l'explicabilité est un concept incroyablement important en intelligence artificielle. Lorsqu'il est utilisé correctement, il peut nous aider à être sûrs qu'un modèle d'IA tire les bonnes conclusions pour la bonne raison.
Il semble donc que la réponse simple consiste à concevoir une IA médicale parfaitement explicable. Pas tout à fait, selon Greiner. La transparence totale s'accompagne de ses propres problèmes.
Tout d'abord, il s'agit d'une norme bien plus élevée que celle que nous exigeons des médecins humains. Les professionnels de la médecine utilisent évidemment des données et des tests pour établir leurs diagnostics. Mais l'expérience et l'intuition sont également des éléments nécessaires à la médecine. C'est pourquoi les médecins et les infirmières font des résidences et des stages pour acquérir cette expérience vitale.
Un psychiatre pourrait diagnostiquer un patient souffrant de dépression en utilisant des critères tels qu'un affect plat, c'est-à-dire une personne qui ne manifeste pas ses émotions de la manière attendue, en se basant sur l'expérience de centaines d'autres cas qu'il a vus au cours de sa carrière. De même, un futur modèle d'IA pourrait poser un diagnostic similaire en se basant sur des modèles qu'il a identifiés après avoir été entraîné sur des millions d'autres cas de dépression. Il peut dire que des caractéristiques spécifiques du patient indiquent une dépression, mais il peut ne pas être capable de décrire précisément pourquoi elles sont importantes.
"Apparemment, les cliniciens humains peuvent utiliser ces intuitions parce qu'ils sont humains. Mais, avec le programme, non, vous devez me raconter une histoire, vous devez décrire précisément pourquoi les lectures étaient élevées", dit-il.
"En exigeant plus d'explicabilité de la part du diagnostiqueur machine que nous ne le faisons de la part d'un médecin humain, nous risquons de passer à côté des principaux avantages qu'offre l'apprentissage automatique."
Ce n'est pas parce qu'un système n'est pas explicable qu'il est mauvais. Selon M. Greiner, si nous nous concentrons trop sur l'explicabilité, nous risquons de perdre en efficacité, ce qui entraînerait des résultats moins bons pour les patients.
Même lorsqu'un modèle médical d'IA peut expliquer comment il est arrivé à un diagnostic, le fait-il toujours de manière à ce que les gens le comprennent ? Et serait-ce même l'idéal ? L'un des principaux avantages des modèles d'apprentissage automatique est qu'ils peuvent être capables de faire des choses que les êtres humains ne peuvent pas faire. Alors qu'une personne peut évaluer une poignée de variables pour prendre une décision, les systèmes d'IA peuvent prendre en compte des centaines ou des milliers de variables.
"Les gens supposent que le monde est simple, avec seulement des combinaisons simples de quelques caractéristiques. S'il l'était, nous n'aurions pas besoin d'outils complexes d'apprentissage automatique. Mais le monde n'est pas si simple - certaines décisions peuvent, par nature, impliquer des combinaisons complexes de dizaines, voire de centaines ou de milliers de facteurs . Je ne sais pas ce qu'il en est pour vous, mais moi, je ne peux pas garder la trace d'un millier de choses dans ma tête", dit-il.
M. Greiner pense que si l'IA doit s'intégrer avec succès dans les soins de santé, il faudra trouver un équilibre entre la facilité d'explication et la possibilité de tirer pleinement parti de la puissance de l'intelligence artificielle.
"Je pense que l'on finira par accepter lentement et progressivement qu'ils peuvent être comme de meilleurs microscopes, qu'ils peuvent donner de bons conseils aux médecins", déclare M. Greiner.
Trouver cet équilibre n'est pas chose facile. La dernière partie de cette série portera sur les enseignements tirés d'une tentative d'intégration de modèles d'IA pour aider les médecins du monde réel à l'hôpital St. Michael de Toronto.
Découvrez certains des autres défis techniques liés à la mise en œuvre de l'intelligence artificielle dans le domaine des soins de santé, ainsi que certaines solutions potentielles, dans la première partie de cette série : - le site Web de la Commission européenne. Surmonter les défis de l'IA dans le domaine de la santé : déploiement réussi de modèles à apprentissage automatique en médecine
7 novembre 2024
Nouvelles
Amii s'associe à pipikwan pêhtâkwan et à sa jeune entreprise wâsikan kisewâtisiwin pour exploiter l'IA afin de lutter contre la désinformation au sujet des peuples autochtones et d'inclure ces derniers dans le développement de l'IA. Le projet est soutenu par l'engagement de PrairiesCan à accélérer l'adoption de l'IA par les PME de la région des Prairies.
7 novembre 2024
Nouvelles
Russ Greiner, boursier Amii et titulaire de la chaire CIFAR AI du Canada, et David Wishart, chercheur et collaborateur de l'Université de l'Alberta, ont reçu le prix Brockhouse Canada pour la recherche interdisciplinaire en sciences et en ingénierie, décerné par le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG).
6 novembre 2024
Nouvelles
Jonathan Schaeffer, membre fondateur d'Amii, a passé 40 ans à avoir un impact considérable sur la théorie des jeux et l'IA. Aujourd'hui, il se retire du monde universitaire et partage certaines des connaissances qu'il a acquises au cours de son impressionnante carrière.
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.