Poste de recherche
Dans ce travail, nous étudions les algorithmes d'apprentissage dans les processus de décision de Markov (PDM) non actualisés à horizon infini avec approximation de fonction. Nous montrons d'abord que l'analyse du regret de l'algorithme Politex (une version de l'itération de politique régularisée) peut être affinée de O(T^3/4) à O(√T^3/4) sous des hypothèses presque identiques, et nous instancions la borne avec une approximation de fonction linéaire. Notre résultat fournit la première limite de regret O(√T) à haute probabilité pour un algorithme efficace en termes de calcul dans ce contexte. L'implémentation exacte de Politex avec une approximation de fonction de réseau neuronal est inefficace en termes de mémoire et de calcul. Puisque notre analyse suggère que nous devons bien approximer la moyenne des fonctions action-valeur des politiques passées, nous proposons une implémentation simple et efficace où nous entraînons une seule fonction Q sur un tampon de relecture avec les données passées. Nous montrons que cela conduit souvent à des performances supérieures à d'autres choix de mise en œuvre, notamment en termes de temps d'horloge. Notre travail fournit également une nouvelle justification théorique pour l'utilisation du rejeu d'expérience dans les algorithmes d'itération de politique.
1er février 2023
Poste de recherche
Lisez ce document de recherche, co-écrit par Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada : Vers un système de santé apprenant basé sur l'intelligence artificielle pour la prédiction de la mortalité au niveau de la population à l'aide d'électrocardiogrammes
31 janvier 2023
Poste de recherche
20 janvier 2023
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.