Poste de recherche
Certaines méthodes d'apprentissage par renforcement souffrent d'une complexité d'échantillonnage élevée, ce qui les rend peu pratiques dans les situations du monde réel. La réutilisation des fonctions Q, une méthode d'apprentissage par transfert, est une façon de réduire la complexité d'échantillonnage de l'apprentissage, améliorant potentiellement l'utilité des algorithmes existants. Des travaux antérieurs ont montré l'efficacité empirique de la réutilisation des fonctions Q pour divers environnements lorsqu'elle est appliquée à des algorithmes sans modèle. À notre connaissance, il n'y a pas eu de travaux théoriques montrant le regret de la réutilisation de la fonction Q lorsqu'elle est appliquée au cadre tabulaire, sans modèle. Notre objectif est de combler le fossé entre les travaux théoriques et empiriques sur la réutilisation de la fonction Q en fournissant un aperçu théorique de l'efficacité de la réutilisation de la fonction Q lorsqu'elle est appliquée à l'algorithme Q-learning avec UCB-Hoeffding. Notre principale contribution est de montrer que dans un cas spécifique, si la réutilisation de la fonction Q est appliquée à l'algorithme Q-learning avec UCB-Hoeffding, le regret est indépendant de l'espace d'état ou d'action. Nous fournissons également des résultats empiriques soutenant nos conclusions théoriques.
1er février 2023
Poste de recherche
Lisez ce document de recherche, co-écrit par Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada : Vers un système de santé apprenant basé sur l'intelligence artificielle pour la prédiction de la mortalité au niveau de la population à l'aide d'électrocardiogrammes
31 janvier 2023
Poste de recherche
20 janvier 2023
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.