Découvrez les recherches et les travaux de Nidhi Hegde, boursière Amii et titulaire de la chaire d'IA du CIFAR au Canada. Ayant travaillé à la fois dans l'industrie et dans le milieu universitaire, les recherches de Nidhi portent sur un large éventail de sujets, notamment l'analyse des réseaux sociaux et l'allocation des ressources dans les réseaux. La plupart de ses travaux récents ont porté sur des méthodes robustes d'apprentissage automatique, y compris des algorithmes pratiques qui protègent la vie privée et améliorent l'équité.
Lors d'une récente séance de questions-réponses avec Dave Staszak, responsable scientifique de l'apprentissage automatique chez Amii, Nidhi a suggéré la nécessité d'un changement radical dans la manière dont l'apprentissage automatique aborde la protection de la vie privée.
Vie privée différentielle : Équilibrer la précision et la protection de la vie privée dans l'IA
Nidhi explique qu'elle a commencé à s'intéresser à la protection différentielle de la vie privée lorsqu'elle travaillait avec une entreprise sur un système de recommandation de films. La confidentialité différentielle est une approche qui utilise des méthodes mathématiques pour préserver la confidentialité d'un individu dans un ensemble de données. Dans le domaine de l'apprentissage automatique, elle permet à un modèle de faire des déductions et des prédictions sur la base d'une collection de données tout en rendant difficile la collecte d'informations sur une personne en particulier.
Nidhi explique que la protection différentielle de la vie privée est souvent abordée comme un compromis : une protection accrue de la vie privée au détriment de la précision. La question qui se pose souvent est de savoir quel degré de précision doit être sacrifié tout en atteignant l'objectif du modèle d'IA. Cependant, Nidhi affirme que la protection de la vie privée devrait être considérée comme un élément plus fondamental du processus.
"Il faudrait peut-être considérer la vie privée comme un objectif en soi", dit-elle. "Dans ce cas, il ne s'agira pas de renoncer à quelque chose pour obtenir la protection de la vie privée, n'est-ce pas ? Il s'agira plutôt d'essayer de satisfaire les deux."
Cette perspective peut conduire à des modèles qui concilient efficacement le respect de la vie privée et la précision.
Elle aborde également des travaux récents sur la manière dont les approches actuelles de la protection différentielle de la vie privée pourraient devoir s'adapter aux différentes technologies de l'IA, telles que les grands modèles de langage. Comme ces modèles peuvent mémoriser et rappeler des données antérieures, ils pourraient être vulnérables aux tentatives d'extraction d'informations privées utilisées pour la formation.
"La façon dont la protection différentielle de la vie privée a été conçue à l'origine ne s'applique plus vraiment à ces modèles. Nous devons réfléchir à d'autres façons d'aborder ce problème, car le type d'attaque ou le type d'atteinte ou d'atteintes sont différents", ajoute-t-elle.
Désapprentissage automatique et droit à l'oubli
Outre la protection robuste et différentielle de la vie privée, Nidhi étudie le concept de "désapprentissage de la machine". Elle note qu'une fois qu'un modèle a été formé sur des données, il peut être difficile de supprimer l'influence de ces données sur le modèle. Cela peut avoir de sérieuses implications en matière de protection de la vie privée, d'autant plus que de plus en plus de pays envisagent d'adopter des lois sur le "droit à l'oubli". Les méthodes différentielles de protection de la vie privée pourraient être utiles dans ce domaine, dit-elle, bien que ce type de travail n'en soit qu'à ses débuts. Toutefois, Nidhi fait remarquer qu'au vu de l'évolution des choses, "les premiers stades ne durent pas longtemps".
"C'est un défi amusant", dit-elle. J'ai hâte d'y être".
Au cours de la séance de questions-réponses, Nidhi et Dave abordent également de nouvelles approches pour minimiser l'injustice dans les modèles d'apprentissage automatique et d'autres aspects de la protection de la vie privée dans les projets d'IA. Consultez la vidéo complète pour assister à la conversation.