Poste de recherche

Vers une estimation efficace de la valeur basée sur le gradient

Résumé

Les méthodes basées sur le gradient pour l'estimation de la valeur dans l'apprentissage par renforcement ont des propriétés de stabilité favorables, mais elles sont généralement beaucoup plus lentes que les méthodes d'apprentissage par différence temporelle (TD). Nous étudions les causes profondes de cette lenteur et montrons que l'erreur moyenne carrée de Bellman (MSBE) est une fonction de perte mal conditionnée dans le sens où son hessien a un grand nombre de conditions. Pour résoudre l'effet négatif du mauvais conditionnement de la MSBE sur les méthodes basées sur le gradient, nous proposons une méthode proximale sans lot de faible complexité qui suit approximativement la direction de Gauss-Newton et est asymptotiquement robuste au paramétrage. Notre algorithme principal, appelé RANS, est efficace dans le sens où il est significativement plus rapide que les méthodes à gradient résiduel tout en ayant presque la même complexité de calcul, et est compétitif avec la TD sur les problèmes classiques que nous avons testés.

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !