Poste de recherche

Échantillonnage Meta-Thompson

Résumé :

L'exploration efficace dans les bandits est un problème fondamental d'apprentissage en ligne. Nous proposons une variante de l'échantillonnage de Thompson qui apprend à mieux explorer lorsqu'elle interagit avec des instances de bandits tirées d'une antériorité inconnue. L'algorithme méta-apprend le préalable et nous l'appelons donc MetaTS. Nous proposons plusieurs implémentations efficaces de MetaTS et l'analysons dans les bandits gaussiens. Notre analyse montre l'avantage du méta-apprentissage et présente un intérêt plus large, car nous déduisons une nouvelle limite de regret de Bayes dépendant de l'antériorité pour l'échantillonnage de Thompson. Notre théorie est complétée par une évaluation empirique, qui montre que MetaTS s'adapte rapidement à l'antériorité inconnue.

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !