Si vous avez déjà vu l'intérieur d'un nid de guêpes ou d'une ruche, vous avez probablement été émerveillé par la complexité de leur conception. Les guêpes construisent leurs nids à l'intérieur des murs, sous les avant-toits et dans les arbres. Mais quel que soit l'emplacement, le nid est adapté à l'espace disponible et chaque nid comporte un ensemble familier de couloirs avec des structures hexagonales.
Mais vous êtes-vous déjà demandé comment un groupe de guêpes ou d'abeilles travaille ensemble pour construire de telles structures ? Qui décide de la taille du nid ? Ou de la forme des murs ? Les réponses à ces questions ne nous en apprennent pas seulement davantage sur l'intelligence des insectes. Elles nous offrent également de nouvelles façons d'envisager l'intelligence artificielle.
Lorsque nous construisons une maison, ce n'est pas comme si une équipe d'ouvriers du bâtiment se présentait sans plans ni direction. Il y a un chef de chantier qui supervise les travaux. Mais aucun insecte n'est « chargé » de concevoir un nid. Comment une structure aussi complexe peut-elle donc être construite sans décideur central ?
Un nid de guêpes est initié par une reine, mais l'essentiel du travail est effectué par la première génération de guêpes qui éclosent à partir de cette structure initiale. Chacune de ces guêpes possède sa propre programmation interne qui lui indique comment construire les structures hexagonales à l'intérieur d'un nid de guêpes. Ces mêmes instincts lui indiquent également quand arrêter la construction de l'intérieur et commencer à construire les parois du nid.
Chaque guêpe ouvrière dispose du même ensemble d'instructions et travaille au nid en exécutant ces instructions simples. Les modifications apportées au nid par chaque guêpe déterminent ce que fera la guêpe suivante, un phénomène appelé stigmergie. Comme chaque guêpe comprend ces règles simples de construction du nid, elles sont capables de construire le nid ensemble de manière distribuée, sans qu'aucune guêpe ne soit responsable.
Qu'est-ce que cela nous apprend sur l'intelligence, tant naturelle qu'artificielle ? Tout d'abord, cela révèle notre hypothèse selon laquelle il doit y avoir un leader pour construire quelque chose de complexe. C'est l'un de nos préjugés sur la nature de l'intelligence : nous avons tendance à supposer qu'il existe une organisation centralisée alors qu'il n'y en a pas. Cela nous montre également que nous pouvons supposer à tort que lorsque nous voyons de la complexité, il y a une grande intelligence derrière. Mais la complexité d'un nid de guêpes ne provient pas d'un plan directeur, mais de l'interaction de multiples agents simples exécutant un ensemble de règles simples (un peu comme dans le jeu de la vie).
Le complexe à partir du simple
Afin d'étudier l'interaction entre les insectes et l'émergence d'un comportement intelligent à partir de groupes d'agents, les scientifiques se sont tournés vers les robots. À l'aide d'expériences élégantes réalisées avec des robots simples, ils ont illustré comment un comportement complexe peut émerger lorsqu'un groupe d'agents suit tous un programme simple. Par exemple, dans cette vidéo, le Dr Barbara Webb décrit un essaim de robots qui produisent un comportement de construction de murs similaire à celui observé chez les fourmis. Chaque robot dispose d'un programme simple comportant seulement quelques règles, mais en travaillant ensemble, ils peuvent construire un nouveau mur pour protéger leur « nid ». Aucun robot n'est responsable, et même si la moitié des robots venait à s'arrêter, la construction du mur pourrait se poursuivre. Le comportement semble complexe, mais il est le résultat de la collaboration de nombreux agents simples.
Il existe des exemples plus anciens de comportements similaires, d'apparence intelligente, provenant de robots simples. Les tortues de Grey Walter étaient des robots simples programmés pour se déplacer vers une source de lumière. Si un robot détectait qu'il avait heurté quelque chose en se déplaçant vers la lumière, il tournait dans une direction aléatoire et continuait à avancer. Il se remettait ensuite en mouvement vers la lumière. Ces deux comportements simples combinés créent quelque chose qui ressemble beaucoup à une navigation intelligente. Les premiers robots Roomba fonctionnaient de manière similaire : ils tournaient au hasard lorsqu'ils rencontraient un obstacle et, une fois leur batterie faible, ils se dirigeaient vers le signal lumineux de leur station de recharge. Très peu de gens auraient qualifié ces premiers Roomba d'intelligents, mais ils étaient capables (la plupart du temps) de passer l'aspirateur sur le sol avec succès.
Il y a ici quelques leçons que nous pouvons appliquer à l'IA moderne. Tout comme les agents simples dont nous avons parlé ici, les neurones des réseaux neuronaux agissent localement selon des règles simples. Aucun neurone n'est intelligent, aucun neurone n'est responsable, mais en tant que groupe, ils peuvent produire quelque chose qui ressemble à de l'intelligence.
Cela conduit à une sorte de dilemme. Des groupes d'agents très simples peuvent travailler ensemble pour créer quelque chose qui ressemble à une intelligence organisée. Dans le même temps, le cerveau humain n'est qu'un ensemble d'agents simples (les neurones) qui travaillent ensemble. Comment pouvons-nous différencier quelque chose qui crée un comportement d'apparence intelligente de l'intelligence réelle ?
Certains ont avancé que l'intention distingue la véritable intelligence de cette complexité organisée. Aucune guêpe n'a l'intention de construire le nid dans son intégralité dès le départ. Chaque guêpe agit localement, et ensemble, elles accomplissent une tâche complexe sans que cela soit l'intention d'aucune d'entre elles.
D'autre part, bien qu'aucun neurone du cerveau n'ait d'intention, il existe un sentiment d'intention créé par l'ensemble des neurones, et cette intention peut être focalisée et redirigée. Chacune des guêpes est à la merci de ses instincts, contrainte d'exécuter cet ensemble simple d'instructions. Mais un être humain (et en fait de nombreux êtres vivants) peut dépasser l'instinctif et afficher un comportement complexe avec une intention dirigée. La question n'est donc pas de savoir si le comportement complexe est intelligent, mais plutôt si ce comportement est intentionnel.
Cela modifie légèrement les critères d'intelligence pour l'IA. Définir ce que signifie l'intention pour une IA est une question profonde à laquelle on ne peut répondre en formant un LLM qui remporte les Olympiades internationales de mathématiques (IMO), cela nécessite une nouvelle façon de penser. Nous devons montrer que l'IA est plus qu'un ensemble de neurones réagissant à des entrées, qu'il y a une attention et un but derrière son « comportement ». C'est plus qu'un essaim de guêpes construisant des hexagones, sans aucun plan pour ce que sera le nid.
Alona Fyshe est chercheuse en résidence pour la communication scientifique à l'Amii, titulaire d'une chaire d'IA du CIFAR au Canada et boursière de l'Amii. Elle est également professeure associée, nommée conjointement à l'informatique et à la psychologie à l'université de l'Alberta.
Les travaux d'Alona font le lien entre les neurosciences et l'IA. Elle applique des techniques d'apprentissage automatique aux données d'imagerie cérébrale recueillies lors de la lecture de textes ou de la visualisation d'images, révélant ainsi comment le cerveau encode le sens. Parallèlement, elle étudie comment les modèles d'IA apprennent des représentations comparables à partir de données linguistiques et visuelles.

