Poste de recherche

L'IA explicable : la nouvelle 42 ?

L'IA explicable n'est pas un domaine nouveau. Depuis au moins le début de l'exploitation du raisonnement abductif de C.S. Pierce dans les systèmes experts des années 1980, il existe des architectures de raisonnement pour soutenir une fonction d'explication pour les systèmes d'IA complexes, y compris les applications dans le diagnostic médical, la conception complexe à plusieurs composants et le raisonnement sur le monde réel. L'explicabilité est donc au moins aussi ancienne que les débuts de l'IA et constitue une conséquence naturelle de la conception des systèmes d'IA. Alors que les premiers systèmes experts étaient constitués de bases de connaissances artisanales qui permettaient de raisonner sur des domaines étroitement définis (par exemple, INTERNIST, MYCIN), ces systèmes n'avaient aucune capacité d'apprentissage et ne disposaient que d'un traitement primitif de l'incertitude. Mais l'évolution des architectures de raisonnement formel pour incorporer un raisonnement probabiliste fondé sur des principes a permis de traiter la saisie et l'utilisation de connaissances incertaines.


Les solutions d'IA et d'apprentissage automatique issues des architectures de réseaux neuronaux ont connu un succès récent et relativement rapide. Une nouvelle génération de méthodes neuronales permet désormais d'exploiter l'applicabilité pratique des approches d'apprentissage statistiques et algébriques dans des espaces de dimension arbitrairement élevée. Mais malgré leurs énormes succès, en grande partie dans des problèmes qui peuvent être considérés comme des problèmes de classification, leur efficacité est toujours limitée par leur non-débogage et leur incapacité à "expliquer" leurs décisions d'une manière compréhensible et reconstructible par l'homme. Ainsi, alors qu'AlphaGo ou DeepStack peuvent écraser les meilleurs humains au Go ou au Poker, aucun de ces programmes n'a de modèle interne de sa tâche ; ses représentations défient l'interprétation humaine, il n'y a pas de mécanisme pour expliquer ses actions et son comportement, et de plus, il n'y a pas de valeur pédagogique évidente ... les systèmes de haute performance ne peuvent pas aider les humains à s'améliorer.


Même lorsque nous comprenons l'échafaudage mathématique sous-jacent des architectures actuelles d'apprentissage automatique, il est souvent impossible d'avoir un aperçu du fonctionnement interne des modèles ; nous avons besoin d'outils de modélisation et de raisonnement explicites pour expliquer comment et pourquoi un résultat a été obtenu. Nous savons également qu'un défi important pour l'IA future est l'adaptation contextuelle, c'est-à-dire des systèmes qui aident de manière incrémentielle à construire des modèles explicatifs pour résoudre des problèmes du monde réel. Dans ce domaine, il serait avantageux de ne pas exclure l'expertise humaine, mais d'augmenter l'intelligence humaine par l'intelligence artificielle.

Remerciements

Les auteurs remercient leurs collègues des institutions locales et internationales pour leurs précieux commentaires, remarques et critiques sur cette introduction à l'atelier MAKE-Explainable-AI.

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !