Poste de recherche

Convergence uniforme des interpolateurs : Largeur gaussienne, limites de la norme et surajustement bénin

Résumé :

Nous considérons l'apprentissage par interpolation dans la régression linéaire à haute dimension avec des données gaussiennes, et nous prouvons une garantie de convergence uniforme générique sur l'erreur de généralisation des interpolateurs dans une classe d'hypothèses arbitraire en termes de largeur gaussienne de la classe. En appliquant la limite générique aux boules de norme euclidienne, nous retrouvons le résultat de cohérence de Bartlett et al. (2020) pour les interpolateurs à norme minimale, et nous confirmons une prédiction de Zhou et al. (2020) pour les interpolateurs à norme quasi minimale dans le cas particulier des données gaussiennes. Nous démontrons la généralité de la borne en l'appliquant au simplex, en obtenant un nouveau résultat de cohérence pour les interpolateurs à norme minimale l1 (recherche de base). Nos résultats montrent comment les limites de généralisation basées sur les normes peuvent expliquer et être utilisées pour analyser le surajustement bénin, du moins dans certains contextes.

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !