Mark Schmidt, Amii Canada Chaire CIFAR d'IA et professeur associé d'informatique à l'Institut de recherche de l'Université d'Helsinki. Université de la Colombie-Britanniquea reçu la bourse Arthur B. McDonald.
La bourse, accordée par le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), offre des subventions de deux ans pour soutenir les chercheurs en début de carrière "afin qu'ils puissent devenir des leaders dans leur domaine et inspirer les autres".
La bourse, d'un montant de 250 000 dollars, comprend un financement permettant de libérer les bénéficiaires de leurs tâches d'enseignement et d'administration.
"C'est extraordinaire. Il n'est pas facile d'obtenir une décharge d'enseignement, alors avoir le temps de se concentrer sur la recherche est vraiment spécial", déclare M. Schmidt.
Une grande partie de cette recherche s'est concentrée sur l'optimisation de l'apprentissage automatique, de la vision par ordinateur et d'autres applications afin d'améliorer la vitesse et l'efficacité des modèles d'apprentissage automatique. Grâce au soutien offert par la bourse McDonald, M. Schmidt affirme que ses étudiants et lui-même prévoient de "redoubler d'efforts" dans ce domaine.
"Nous essayons de développer des méthodes qui permettent de former des modèles d'apprentissage automatique à moindre coût, en termes de temps et d'argent.
La proposition de M. Schmidt au CRSNG mettait l'accent sur l'optimisation des hyperparamètres dans la formation à l'apprentissage automatique. Les hyperparamètres sont les variables qui contrôlent la manière dont un modèle d'apprentissage automatique apprend réellement et qui sont définies avant le début de la formation. Les hyperparamètres sont généralement définis avant qu'un modèle ne soit formé sur des données et impliquent des essais et des erreurs. Les chercheurs passent beaucoup de temps à s'entraîner, à modifier les hyperparamètres, puis à s'entraîner à nouveau. Cela peut se produire plusieurs fois avant que les chercheurs ne trouvent un ensemble d'hyperparamètres qui les satisfasse.
Selon M. Schmidt, ce processus, qui consiste à repartir constamment de zéro, entraîne une perte de temps, de puissance de calcul et de coûts considérable. Certains des travaux récents de M. Schmidt et de ses étudiants portent sur un hyperparamètre particulier, le taux d'apprentissage. Ce paramètre représente le rythme auquel un modèle d'apprentissage automatique apprend ou met à jour une variable au cours de la formation.
Leurs travaux ont montré qu'au lieu de recommencer le processus de formation à plusieurs reprises avec des taux d'apprentissage différents, il est possible d'ajuster le taux d'apprentissage pendant la formation et d'obtenir des résultats similaires à ceux obtenus si le taux idéal avait été fixé dès le départ. Un article détaillant leurs travaux sera présenté lors de la conférence Neural Information Processing Systems de cette année, en décembre.
L'élaboration de modèles plus efficaces et optimisés constitue une étape importante dans l'évolution de l'intelligence artificielle. Elle permet d'utiliser des ensembles de données plus importants qui peuvent être appliqués à la résolution de problèmes plus complexes qu'il n'aurait pas été possible de résoudre autrement. La création de modèles plus efficaces est essentielle pour les applications de l'IA dans le monde réel et pour les rendre plus accessibles.
"Il s'agit de savoir ce qu'il fallait pour former un modèle. Si vous deviez le faire dans une grappe [d'ordinateurs], vous pouvez peut-être maintenant le faire sur une station de travail. Ce que vous faisiez sur une station de travail, vous pouvez peut-être le faire sur un ordinateur portable. Et ce que vous faisiez sur un ordinateur portable, vous pouvez peut-être le faire sur votre téléphone.
Et ce qui était impossible auparavant, vous pouvez peut-être le résoudre maintenant si vous avez de meilleurs algorithmes".