Nouvelles
Découvrez les recherches et les travaux de Nidhi Hegde, boursière Amii et titulaire de la chaire d'IA du CIFAR au Canada. Ayant travaillé à la fois dans l'industrie et dans le milieu universitaire, les recherches de Nidhi portent sur un large éventail de sujets, notamment l'analyse des réseaux sociaux et l'allocation des ressources dans les réseaux. La plupart de ses travaux récents ont porté sur des méthodes robustes d'apprentissage automatique, y compris des algorithmes pratiques qui protègent la vie privée et améliorent l'équité.
Lors d'une récente séance de questions-réponses avec Dave Staszak, responsable scientifique de l'apprentissage automatique chez Amii, Nidhi a suggéré la nécessité d'un changement radical dans la manière dont l'apprentissage automatique aborde la protection de la vie privée.
Nidhi explique qu'elle a commencé à s'intéresser à la protection différentielle de la vie privée lorsqu'elle travaillait avec une entreprise sur un système de recommandation de films. La confidentialité différentielle est une approche qui utilise des méthodes mathématiques pour préserver la confidentialité d'un individu dans un ensemble de données. Dans le domaine de l'apprentissage automatique, elle permet à un modèle de faire des déductions et des prédictions sur la base d'une collection de données tout en rendant difficile la collecte d'informations sur une personne en particulier.
"Peut-être devriez-vous considérer la vie privée comme un objectif en soi. Alors, ce ne sera pas comme si vous renonciez à quelque chose pour obtenir la vie privée, n'est-ce pas ? On essaiera de satisfaire les deux."
- Nidhi Hegde
Nidhi explique que la protection différentielle de la vie privée est souvent abordée comme un compromis : une protection accrue de la vie privée au détriment de la précision. La question qui se pose souvent est de savoir quel degré de précision doit être sacrifié tout en atteignant l'objectif du modèle d'IA. Cependant, Nidhi affirme que la protection de la vie privée devrait être considérée comme un élément plus fondamental du processus.
"Il faudrait peut-être considérer la vie privée comme un objectif en soi", dit-elle. "Dans ce cas, il ne s'agira pas de renoncer à quelque chose pour obtenir la protection de la vie privée, n'est-ce pas ? Il s'agira plutôt d'essayer de satisfaire les deux."
Cette perspective peut conduire à des modèles qui concilient efficacement le respect de la vie privée et la précision.
Elle aborde également des travaux récents sur la manière dont les approches actuelles de la protection différentielle de la vie privée pourraient devoir s'adapter aux différentes technologies de l'IA, telles que les grands modèles de langage. Comme ces modèles peuvent mémoriser et rappeler des données antérieures, ils pourraient être vulnérables aux tentatives d'extraction d'informations privées utilisées pour la formation.
"La façon dont la protection différentielle de la vie privée a été conçue à l'origine ne s'applique plus vraiment à ces modèles. Nous devons réfléchir à d'autres façons d'aborder ce problème, car le type d'attaque ou le type d'atteinte ou d'atteintes sont différents", ajoute-t-elle.
Outre la protection robuste et différentielle de la vie privée, Nidhi étudie le concept de "désapprentissage de la machine". Elle note qu'une fois qu'un modèle a été formé sur des données, il peut être difficile de supprimer l'influence de ces données sur le modèle. Cela peut avoir de sérieuses implications en matière de protection de la vie privée, d'autant plus que de plus en plus de pays envisagent d'adopter des lois sur le "droit à l'oubli". Les méthodes différentielles de protection de la vie privée pourraient être utiles dans ce domaine, dit-elle, bien que ce type de travail n'en soit qu'à ses débuts. Toutefois, Nidhi fait remarquer qu'au vu de l'évolution des choses, "les premiers stades ne durent pas longtemps".
"C'est un défi amusant", dit-elle. J'ai hâte d'y être".
Au cours de la séance de questions-réponses, Nidhi et Dave abordent également de nouvelles approches pour minimiser l'injustice dans les modèles d'apprentissage automatique et d'autres aspects de la protection de la vie privée dans les projets d'IA. Consultez la vidéo complète pour assister à la conversation.
Découvrez comment fonctionne l'IA et comment exploiter son potentiel. Consultez notre page sur la maîtrise de l'Apage sur la maîtrise de l'IA pour commencer votre voyage.
29 octobre 2024
Nouvelles
Dans le dernier épisode d'Approximately Correct, la légende de l'apprentissage par renforcement Rich Sutton (Amii Fellow, Canada CIFAR AI Chair & Chief Scientific Advisor) parle de ce qui, selon lui, freine la recherche sur l'IA.
23 octobre 2024
Nouvelles
Le 13 septembre, Cory Efird, étudiant en maîtrise au département d'informatique de l'Université de l'Alberta, a présenté "Contrastive Decoding for Concepts in the Brain" lors du séminaire sur l'IA.
23 octobre 2024
Nouvelles
Patrick Pilarski, boursier Amii, titulaire de la chaire canadienne CIFAR sur l'IA et codirecteur du BLINC Lab, dirige l'équipe qui participera au Cybathlon 2024, une compétition internationale visant à promouvoir les technologies d'assistance de pointe pour les personnes souffrant de déficiences des membres.
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.