Poste de recherche
Dans cet article, nous discutons d'une approche visant à créer un corpus textuel basé sur Wikipédia avec des annotations exhaustives des mentions d'entités. Les éditeurs de Wikipédia ne sont censés ajouter des hyperliens que dans le but d'aider le lecteur à comprendre le contenu, mais sont découragés d'ajouter des liens qui n'apportent aucun avantage pour la compréhension d'un article. Par conséquent, de nombreuses mentions d'entités populaires (comme des pays ou des événements populaires de l'histoire), des articles précédemment liés ainsi que l'entité de l'article elle-même, ne sont pas liés. Il en résulte un énorme potentiel d'annotations supplémentaires qui peuvent être utilisées pour des tâches NLP en aval, comme l'extraction de relations. Nous montrons que nos annotations sont utiles pour créer des ensembles de données supervisées à distance pour cette tâche. En outre, nous publions tout le code nécessaire pour dériver un corpus à partir d'un vidage brut de Wikipédia, afin qu'il puisse être reproduit par tous.
26 février 2023
Poste de recherche
23 janvier 2023
Poste de recherche
8 août 2022
Poste de recherche
Lisez ce document de recherche co-rédigé par Angel Chang, titulaire de la chaire d'IA de l'ICAR Canada : Apprentissage des traces emphatiques attendues pour le RL profond
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.