Nouvelles

Ce qui nous a enthousiasmés à l'AAAI 2024

Crédit : Payam Mousavi

La 38e conférence annuelle de l'AAAI sur l'intelligence artificielle s'est achevée la semaine dernière et a offert un large aperçu des dernières avancées en matière d'intelligence artificielle, notamment des réalisations en matière d'IA générative, d'IA explicable, de réseaux neuronaux profonds, etc.

Le nombre de sujets et de présentations à la conférence de cette année peut être un peu écrasant. Heureusement, le personnel technique des équipes Advanced Tech, Industry et Training d'Amii était à Vancouver pour l'événement et partage certains des développements les plus intrigants et les plus excitants qu'ils ont vus. Découvrez-les ci-dessous :

Justin Stevens: Progrès de l'éducation en matière d'IA

Éducateur en apprentissage automatique, équipe de formation

Parallèlement à la conférence, le symposium sur les progrès de l'éducation en matière d'IA a présenté les derniers travaux sur l'enseignement de l'IA et l'utilisation de l'IA pour améliorer le travail des éducateurs. Le symposium comportait de nombreuses pistes différentes, notamment l'utilisation de l'IA pour l'éducation en classe et les ressources pour l'enseignement de l'IA aux élèves de la maternelle à la 12e année. Il a abordé des méthodes pour enseigner l'IA d'une manière plus interdisciplinaire et inclusive, ainsi que des projets de premier cycle encadrés sur l'utilisation de l'IA pour améliorer l'accessibilité dans les communications.

L'un des temps forts du symposium a été la remise du prix de l'éducateur exceptionnel à Michael Littman et Charles Isbell. Ils ont parlé de leur parcours de création de cours en ligne ouverts à tous, de l'intégration de la comédie et de la musique dans l'enseignement, et de la responsabilité des éducateurs dans l'enseignement de l'IA, un domaine en plein essor.

En tant que lauréat du prix AAAI/ACM SIGAI New & Future AI Educator Award, j'ai présenté mon idée de créer une base de données d'analogies pour rendre l'enseignement de l'IA plus accessible aux étudiants de différents horizons lors d'une session Blue Sky Idea le samedi 24 février. L'événement comprenait des présentations des trois autres lauréats du prix : Rachel Lugo (McLean School), Shira Wein (Georgetown) et William Agnew (Carnegie Mellon University).

J'ai également co-animé la table ronde intitulée " AI Literacy and CS in the Age of AI : Guidance for Primary and Secondary Education" avec Charlotte Dungan de code.org. Il s'agissait d'une occasion unique de répondre à des questions clés sur la manière dont l'IA est adaptée à la classe de maternelle à la terminale et sur l'importance de la maîtrise de l'IA. Nous avons discuté des méthodes permettant d'éviter que les élèves ne deviennent trop dépendants des technologies de l'IA et de veiller à ce que les élèves puissent accéder aux outils de l'IA de manière équitable.

Je suis très reconnaissante à Marion Neumann et Stephanie Rosenthal, qui ont présidé le symposium, d'avoir créé une communauté extraordinaire autour de l'enseignement de l'IA, et je me réjouis de revenir l'année prochaine !

Payam Mousavi:L'IA au service de la science

Chercheur appliqué, Advanced Tech

Évitant le buzz de l'IA générative, j'ai réorienté mon attention vers les applications moins courantes mais tout aussi fascinantes de l'IA dans les sciences et l'ingénierie, ainsi que vers les systèmes multi-agents coopératifs. J'ai trouvé la série de tutoriels de Peter Frazier et Jake Gardner sur l'optimisation bayésienne appliquée à la conception de matériaux très instructive et pratique. Ils ont tous deux animé des sessions pratiques sur l'utilisation des packages Python BoTorch et GPyTorch pour appliquer les processus gaussiens (GP) ainsi que l'optimisation bayésienne pour l'optimisation multi-objectifs dans la conception de matériaux.

Dans le même ordre d'idées, Grant Rotskoff a présenté une introduction impressionnante (et mathématiquement dense !) aux réseaux neuronaux informatisés par la physique (PINN). À l'origine, ce domaine visait de manière ambitieuse à former de grands modèles flexibles de bout en bout en utilisant uniquement des données. Il s'est maintenant recentré sur l'exploitation de siècles de connaissances scientifiques comme biais inductifs dans la formation de modèles pour des domaines scientifiques tels que la dynamique des fluides et la physique au sens large. Il s'agit d'un domaine en plein essor avec diverses applications dans de multiples industries critiques.

Michael Bronstein a donné une autre conférence très inspirante. Dans son exposé invité, Geometric ML : from Euclid to drug design, Michael a commencé par donner une perspective historique de l'utilisation de la physique et de la géométrie pour motiver et classer la plupart des architectures de réseaux neuronaux d'aujourd'hui dans ce qu'il appelle l'apprentissage profond géométrique (geometric deep learning). Inspiré par des idées de géométrie différentielle, il a proposé une nouvelle classe de réseaux neuronaux graphiques inspirés de la physique qui conviennent à de nombreuses applications nécessitant un niveau de flexibilité que n'offrent pas les graphes discrets traditionnels.

Enfin, j'ai particulièrement apprécié l'atelier d'une journée consacré à la prise de décision et à l'apprentissage des systèmes multi-agents coopératifs. L'exposé de Giovanni Beltrame sur le rôle des hiérarchies dans la mise à l'échelle des systèmes multi-agents a été un moment fort. Il a élégamment démontré, à l'aide de simulations numériques et d'expériences, comment les hiérarchies, souvent observées dans la nature, peuvent atténuer les complexités et permettre à un plus grand nombre d'agents de coopérer plus efficacement.

Sahir : Programmes de transition à l'AAAI

Scientifique en apprentissage automatique, équipe Startups

Parmi les neuf programmes de transition accueillis lors de la conférence de cette année, j'en ai trouvé deux particulièrement intéressants. Le programme passerelle " Collaborative AI and Modeling of Humans " a organisé une série d'exposés, de tables rondes et de séances d'affichage sur ce thème, dont Matt Taylor, boursier de l'Amii et titulaire de la chaire d'IA du CIFAR au Canada, était l'un des organisateurs. L'un des exposés qui a suscité mon intérêt portait sur la synergie entre l'homme et l'IA. Eric Horovitz a expliqué les différentes façons dont l'homme et l'IA peuvent collaborer pour obtenir de meilleurs résultats que l'IA ou l'homme seul. Si les applications de la collaboration entre l'homme et l'IA sont infinies, l'un des exemples les plus frappants mentionnés par Eric est celui des soins de santé, où un système impliquant la collaboration entre l'homme et l'IA a été capable de prédire le cancer avec une erreur d'environ 0 %, contre 3,4 % pour l'homme.

Cet exemple est basé sur leurs travaux sur l'apprentissage du complément humain, qui tentent de résoudre le défi CAMELYON16 pour la détection du cancer dans les ganglions lymphatiques. Ces mêmes travaux ont également exploré le problème scientifique de la classification des galaxies, dans le cadre du projet Galaxy Zoo.

L'autre programme intéressant de la passerelle était l'IA pour les services financiers. L'exposé principal de Greg Mori, intitulé " Challenges and Opportunities in Machine Learning for Financial Services ", a couvert un large éventail d'applications de l'apprentissage automatique dans le domaine de la finance. Greg a présenté certaines applications de l'IA sur lesquelles Borealis AI (l'institut de recherche de RBC) a travaillé. Je mentionne ici quelques exemples. Aiden est un agent d'IA pour la négociation électronique qui utilise l'apprentissage par renforcement profond pour exécuter dynamiquement des ordres importants sur le marché des capitaux. NOMI forecast est leur outil de gestion financière qui aide à prédire les activités de trésorerie à venir d'un utilisateur. Le modèle temporel asynchrone (ATOM ) est un projet récent qui vise à créer un modèle de base à partir de données transactionnelles volumineuses, adapté aux applications des services financiers. Enfin, Bo An a présenté un exposé sur la manière dont le RL est actuellement appliqué dans le commerce quantitatif et a présenté son projet open-source appelé TradeMaster.

David Reid : L'IA explicable

Lead Machine Learning Scientist, Industry Team

Alors que de plus en plus d'institutions commencent à s'appuyer sur l'IA pour automatiser ou éclairer la prise de décision, l'IA devient simultanément moins transparente, ce qui signifie qu'il est plus difficile de procéder à des ajustements lorsqu'elle prend des décisions erronées. Un exemple des conséquences pratiques peut être vu dans l'interdiction récente imposée par San Francisco à la société de taxis autonomes Cruise, en partie à cause de l'interférence répétée avec les services d'urgence.

L'IA explicable joue un rôle important dans le raccourcissement de ces boucles de développement et la résolution plus rapide des problèmes. Lors de la conférence AAAI, Raquel Urtasun, de Waabi, a montré comment ses systèmes d'IA prédisent et visualisent les trajectoires probables de tous les acteurs identifiés, ce qui permet d'analyser sa compréhension de l'environnement en cas d'accident.

Mark Riedl, du Georgia Institute of Technology, a présenté un cadre qui peut être appliqué plus généralement aux algorithmes d'apprentissage par renforcement, y compris ceux utilisés dans les voitures autonomes. Dans le cadre des travaux de son équipe sur l'intelligence centrée sur l'homme, les chercheurs ont formé un modèle permettant de fournir des explications en langage naturel sur les actions entreprises par des agents humains et des agents d'intelligence artificielle accomplissant des tâches basées sur l'influence d'objets dans leur environnement.

L'équipe Kinds of Intelligence de l'université de Cambridge a expliqué une approche complètement différente pour évaluer la compétence de l'IA dans des environnements qui n'ont pas été vus lors de leur formation. Cette équipe évalue des modèles en utilisant une analyse basée sur les capacités pour identifier la difficulté des tâches en termes de navigation, de perception, de planification, etc. et évalue ensuite les performances des agents d'intelligence artificielle par rapport à ces dimensions de capacité. En caractérisant une tâche inédite en termes de capacités requises, les modèles peuvent alors prédire avec une grande précision les chances de réussite d'un agent dans cette tâche.

Atefeh Shahroudnejad:IA générative

Scientifique en apprentissage automatique, équipe technologique avancée

Alors que l'IA générative continue de captiver le monde en repoussant les limites de l'innovation, l'AAAI de cette année s'est déroulée dans un climat d'excitation et d'énergie, centré sur les avancées remarquables de l'IA générative dans différents domaines.

Raquel Urtasun, PDG et fondatrice de Waabi, a dévoilé le potentiel de l'IA générative pour révolutionner toutes les facettes des véhicules autonomes - y compris l'autonomie, la simulation, la cartographie, le matériel, les services commerciaux et la sécurité. Selon Mme Urtasun, l'intégration de l'IA générative promet un bond en avant, permettant des avancées plus rapides, plus sûres et plus évolutives dans le domaine de la technologie de la conduite autonome.

Yann LeCun, vice-président et responsable scientifique de l'IA chez Meta, a attiré l'attention sur l'absence critique de composants clés de l'intelligence humaine - mémoire, raisonnement et planification hiérarchique - dans les modèles d'IA générative existants, révélant un écart substantiel par rapport à l'obtention d'une intelligence de niveau humain. Introduisant une solution innovante, il a présenté une architecture d'IA guidée par les objectifs, inspirée des processus cognitifs, capable d'apprendre, de raisonner et de planifier tout en reconnaissant l'imprévisibilité inhérente au monde. Il s'est penché sur les limites des modèles génératifs du monde pour les images et les vidéos en raison des incertitudes et a proposé l'architecture prédictive d'intégration conjointe (JEPA) pour les modèles du monde. JEPA, en prédisant une représentation du futur à l'aide des représentations des états passés et actuels, offre une approche prometteuse en tirant parti de la puissance de l'espace d'intégration pour simplifier les tâches complexes.

Pascale Fung, directrice de CAiRE à HKUST, s'est penchée sur la question omniprésente de l'hallucination, un défi majeur pour les modèles d'IA générative. L'hallucination, caractérisée par la production de réponses inexactes, trompeuses ou incohérentes, détachées des données réelles ou des informations factuelles, a été étudiée pour ses effets préjudiciables, allant des préjugés discriminatoires et du langage abusif à la désinformation et aux problèmes de protection de la vie privée. Elle a décrit trois niveaux d'hallucination : l'incohérence factuelle, la tangentialité et l'incohérence de l'interrogation, où les réponses ne répondent pas à la question et ne rappellent pas les connaissances pertinentes. La présentation a mis en lumière les deux sources d'hallucination : celles induites par les données et celles induites par la formation ou l'inférence, ainsi qu'une discussion perspicace sur les méthodes contemporaines telles que l'autoréflexion et l'ancrage des connaissances afin d'atténuer ces défis.

Taher Abbasi : Réseaux neuronaux profonds robustes

Machine Learning Scientist, Advanced Tech Team
De nos jours, les réseaux neuronaux profonds (DNN) sont partout : de la robotique à la défense, en passant par la sécurité, les assistants vocaux, l'imagerie médicale, etc. C'est une bonne nouvelle qu'ils soient si puissants, mais nous avons besoin de plus que de simples performances supérieures. Il est essentiel de s'assurer que les DNN sont à la fois sûrs et fiables contre les attaques adverses et les perturbations non adverses, y compris le bruit aléatoire et les perturbations sémantiques. Pour répondre à ce besoin, l'AAAI-24 a organisé une session spéciale sur l'intelligence artificielle sûre et robuste (Safe and Robust Artificial Intelligence - SRAI). Cette piste s'est concentrée sur la théorie et la pratique de la sécurité et de la robustesse dans les systèmes basés sur l'IA.

Afin d'encadrer les réflexions et les discussions qui ont eu lieu lors de la session, nous allons examiner un exemple pratique qui illustre la façon dont ce concept est appliqué dans des scénarios réels.

Dans le contexte de la classification, chaque classe occupe une région dans l'espace latent. Le DNN est considéré comme robuste si, après avoir ajouté une quantité considérable de bruit à un échantillon de données, il ne sort pas des limites de sa classe correspondante. Ainsi, avec des DNN moins robustes, l'attaquant cherche à trouver la quantité minimale de perturbation qui fait sortir l'échantillon de données de ses limites.

En d'autres termes, pour obtenir des DNN robustes, il faut d'abord mesurer la robustesse d'un DNN ! Nous pouvons le faire en trouvant le rayon de robustesse maximal, mais il s'agit d'un problème NP-Complet. La recherche d'une borne inférieure non triviale du rayon de robustesse maximal r est donc un autre choix possible.

Tsui-Wei Weng, et al. ont présenté un exposé perspicace sur l'historique des tentatives de quantification et de résolution de ce problème. Ils ont introduit le score CLEVER pour évaluer la robustesse des DNN contre les attaques adverses. Fast-Lin, CROWN, CNN-Cert, POPQORN sont d'autres algorithmes permettant de vérifier la robustesse des DNN face aux attaques adverses. Semantify-NN est un autre algorithme permettant de certifier la robustesse aux variations sémantiques telles que les rotations, l'éclairage, etc.

La mesure de la robustesse n'était qu'une première étape. Nous faisons davantage confiance aux DNN si nous les comprenons, en particulier dans les domaines à fort enjeu tels que les soins de santé ou les véhicules autonomes. D'un côté, nous avons les modèles linéaires, qui sont moins précis et plus faciles à interpréter. D'autre part, les DNN sont plus précis et moins interprétables. La question est donc de savoir s'il est possible d'obtenir le meilleur des deux mondes.

Apparemment, oui ! Net-Dissect, MILAN, sont des efforts différents en réponse à ce besoin. Le dernier effort en date a été réalisé par Oikarinen et al. qui ont proposé CLIP-Dissect comme l'outil d'interopérabilité le plus efficace du point de vue du calcul pour les DNN. Dans une autre tentative, Oikarinen et al. ont proposé Label-free CBM qui est un DNN interprétable de par sa conception.

Derniers articles d'actualité

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !