Poste de recherche
Pour déployer un modèle d'apprentissage profond en production, il faut qu'il soit à la fois précis et compact pour répondre aux contraintes de latence et de mémoire. Cela se traduit généralement par un réseau à la fois profond (pour garantir la performance) et mince (pour améliorer l'efficacité du calcul). Dans cet article, nous proposons une méthode efficace pour former un réseau fin et profond avec une garantie théorique. Notre méthode est motivée par la compression de modèles. Elle se compose de trois étapes. Tout d'abord, nous élargissons suffisamment le réseau fin profond et l'entraînons jusqu'à convergence. Ensuite, nous utilisons ce réseau large profond bien entraîné pour réchauffer (ou initialiser) le réseau fin profond original. Nous y parvenons en imitant les couches, c'est-à-dire en forçant le réseau fin à imiter les sorties intermédiaires du réseau large de couche en couche. Enfin, nous affinons ce réseau mince profond déjà bien initialisé. La garantie théorique est établie en utilisant l'analyse du champ moyen neuronal. Elle démontre l'avantage de notre approche d'imitation par couche sur la rétropropagation. Nous menons également des expériences empiriques à grande échelle pour valider la méthode proposée. En s'entraînant avec notre méthode, ResNet50 peut surpasser ResNet101, et BERT base peut être comparable à BERT large, lorsque ResNet101 et BERT large sont entraînés avec les procédures d'entraînement standard comme dans la littérature.
15 février 2022
Poste de recherche
Lisez ce document de recherche, co-écrit par Adam White, boursier Amii et titulaire de la chaire d'IA de l'ICRA au Canada : Apprentissage des traces emphatiques attendues pour le RL profond
27 septembre 2021
Poste de recherche
13 juillet 2021
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.