Institut de l'intelligence artificielle de l'Alberta

Rencontre avec un boursier d'Amii : Geoffrey Rockwell | Amii

Publié

4 décembre 2023

En savoir plus sur les recherches et les travaux de Geoffrey Rockwell, l'un des derniers boursiers à avoir rejoint l'équipe de chercheurs de classe mondiale d'Amii. Geoffrey est professeur d'études techniques sur les médias et de philosophie à l'université de l'Alberta. Université d'Alberta.

Les recherches de M. Rockwell portent sur l'éthique de l'IA, la visualisation et l'analyse textuelles et l'informatique dans les sciences humaines.

Découvrez sa conversation avec Alona Fyshe, Fellow de l'Amii et titulaire de la chaire CIFAR au Canada, où elles discutent des réflexions de Rockwell sur les dialogues avec l'IA, l'éthique informatique et la nécessité d'une meilleure connaissance de l'IA en ce qui concerne les modèles de langage de grande taille.

[Cette transcription a été modifiée pour des raisons de longueur et de clarté. Pour voir l'intégralité de la conversation, regardez la vidéo ci-dessus].


Alona Fyshe :

Geoffrey, merci beaucoup d'être venu aujourd'hui. Nous sommes ravis de vous compter parmi nos confrères et de pouvoir vous interviewer aujourd'hui.

Geoffrey Rockwell :

Merci de m'avoir reçu. Je suis très heureux d'être un boursier maintenant. Et d'être ici et d'apprendre avec vous.

Alona Fyshe :

Qu'est-ce qui vous a amené à vous intéresser à l'IA ?


Geoffrey Rockwell :

L'une des choses qui m'ont intéressée est la relation avec le dialogue. J'ai écrit ma thèse de doctorat sur le dialogue philosophique. Et, bien sûr, il y a une longue histoire de dialogue dans l'intelligence artificielle, qui remonte au test de Turing. D'une certaine manière, il s'agit d'un dialogue, et ELIZA est un chatbot. Et maintenant, en novembre (2022), l'un des systèmes d'IA les plus réussis, ChatGPT, est essentiellement construit autour du dialogue.


Alona Fyshe :

Qu'est-ce que la philosophie du dialogue ? Qu'est-ce que cela signifie d'un point de vue simple ?

Geoffrey Rockwell :

Les dialogues permettent de traiter des problèmes complexes pour lesquels il n'y a pas de réponse simple, où l'on veut en fait rapprocher des positions différentes sur un même sujet sans les résoudre. Sans dire à la fin "il gagne" et "c'est la bonne réponse".


Alona Fyshe :

Cela est peut-être lié à la question suivante : quel est le rapport entre la philosophie et l'IA ?


Geoffrey Rockwell :

Je veux dire qu'il y a probablement eu une époque où les philosophes faisaient partie des personnes considérées comme faisant de l'IA.

D'un côté, il y a des gens comme [Hubert] Dreyfus, qui apportait une perspective phénoménologique et critiquait un certain point de vue sur la manière dont nous allions parvenir à l'IA par le biais du traitement symbolique.

Il s'agit donc d'une première approche. Je pense qu'un autre domaine où la philosophie croise l'IA est celui des théories de l'esprit. Vous savez, dans la mesure où certaines personnes qui étudient l'IA le font pour mieux comprendre l'intelligence humaine.

Et comme, bien sûr, il y a un esprit ou une philosophie de l'esprit. Il y a donc beaucoup de chevauchements, tout comme entre l'IA et les sciences cognitives et entre la philosophie et les sciences cognitives.

Troisièmement, je pense que l'éthique devient de plus en plus importante. La tradition de l'éthique informatique, je pense, est l'une des choses qui mûrissent et qui réfléchissent à l'IA aujourd'hui.


Alona Fyshe :

Que pensez-vous des grands modèles linguistiques comme ChatGPT ?


Geoffrey Rockwell :

Où sont mes pensées ? Mes pensées varient d'un jour à l'autre, au fur et à mesure que je joue avec elles.

Je ne m'inquiète pas particulièrement de la singularité, n'est-ce pas ? Je ne suis donc pas d'accord avec les personnes qui considèrent les grands modèles de langage comme un signe que nous sommes très proches de l'intelligence artificielle générale et, par conséquent, de la superintelligence ou de l'ultraintelligence, quel que soit le nom qu'on lui donne. Je ne fais donc pas partie de ce camp.

J'ai tendance à ne pas penser que le problème auquel nous sommes confrontés actuellement, le problème éthique, est un problème d'alignement de la super-intelligence. Je pense qu'il y a un camp qui dit que nous avons une série de choses que nous savons être problématiques avec ces grands modèles de langage. Vous savez, ils ont tendance à refléter les biais intégrés dans les ensembles de données d'entraînement. Ce sont des problèmes immédiats, et ils le seront d'autant plus que ces choses sont déployées de manière non transparente.

Il s'agit donc de savoir comment tirer parti des progrès extraordinaires réalisés dans ce domaine et des applications de ces outils tout en garantissant un certain niveau de transparence, de responsabilité, etc. Je suis particulièrement préoccupé, je pense, par les utilisations de cette technologie qui ne sont pas visibles lorsqu'elles sont utilisées par un bureau gouvernemental ou une banque pour déterminer votre cote de crédit. Voilà le genre de questions qui me préoccupent.


Alona Fyshe :

Une chose qui m'effraie à propos de ces grands modèles de langage, et qui est en quelque sorte liée à ce que vous avez déjà évoqué, est la manière dont les humains ont utilisé le dialogue dans le passé pour convaincre.

Je crains que ChatGPT puisse avoir des conversations très convaincantes avec les gens et les convaincre de choses qui ne sont pas vraies.


Geoffrey Rockwell :

Je suis d'accord. Et je pense, comme [Douglas] Hofstadter le dit à propos de l'effet Eliza, qu'apparemment la secrétaire de [Joseph] Weizenbaum lui a même demandé à un moment donné de quitter la pièce parce qu'elle était en train d'avoir une conversation très personnelle avec Eliza.

Nous avons évolué pour attribuer de l'intelligence là où il n'y en a pas nécessairement.


Alona Fyshe :

Oui, et je pense que cela vient de nos théories de l'esprit selon lesquelles il existe certaines entités ou certaines interactions, dont le dialogue est l'élément clé, et que si nous obtenons un dialogue qui présente certaines caractéristiques, nous projetons de l'intelligence.


Geoffrey Rockwell :

Et je suis tout à fait d'accord.

Et pour poursuivre dans cette voie, je veux dire que c'est la préoccupation autour de la désinformation que ces outils puissent être les esclaves d'un méta-processus qui fait ce que Cambridge Analytica essayait de faire, vous savez, micro-cibler les publicités. Mais maintenant, vous microciblez le dialogue, ce qui serait, comme vous l'avez dit, plus convaincant et peut-être plus susceptible d'influencer les gens et de les manipuler. Les gens utilisent les mots qu'ils pensent et qu'ils comprennent lorsqu'ils parlent de grands modèles de langage, qu'il s'agisse de profanes ou de personnes ayant un bagage technique.


Alona Fyshe :

Pensez-vous que ce sont les bons mots à utiliser ? Devrions-nous utiliser d'autres mots ?


Geoffrey Rockwell :

Une fois qu'ils ont inventé l'expression "intelligence artificielle", le chat est sorti du sac.

Ceci étant dit, je pense qu'il y a une prise de conscience dans le domaine de l'informatique, du moins peut-être pas dans le public, peut-être même pas dans la philosophie. Nous avons besoin d'un niveau de connaissance de l'IA tel que les gens comprennent qu'un grand modèle de langage ne comprend pas ce que vous écrivez, de la manière dont vous le comprenez,

Il ne s'agit pas d'une série d'associations. Il s'agit plutôt d'une sorte de prédiction des mots qui devraient suivre. Mais ce n'est pas comprendre comme nous comprenons.


Alona Fyshe :

Merci beaucoup d'être venus.


Geoffery Rockwell :

Ce fut un réel plaisir de parler avec vous, et merci de m'avoir accueilli parmi vous.

Auteurs

Partager