Un article écrit par Nicholas De Rosa

Ne vous méprenez pas : les robots conversationnels ne sont pas conscients

Techno > Intelligence artificielle

ChatGPT est un robot conversationnel basé sur un modèle de langage mis au point par OpenAI.Cliquez ici pour afficher l'image d'en-tête
ChatGPT est un robot conversationnel basé sur un modèle de langage mis au point par OpenAI.

Le lancement récent du grand modèle de langage Claude 3 a ravivé des discussions au sujet de la conscience de l'intelligence artificielle (IA). Cela est dû en partie au fait que Claude semblait philosopher à propos de sa propre conscience dans des publications virales et que l’entreprise qui l’a créé, Anthropic, a affirmé que Claude manifeste des degrés de compréhension et de fluidité « quasi humains ».

Nous avons cru bon de discuter de la supposée « conscience » des grands modèles de langage avec la linguiste Emily Bender. Cette professeure à l’Université de Washington a été désignée par le magazine Time comme une des 100 personnes les plus influentes du secteur de l’IA l’an dernier.

Mme Bender est la coauteure de l’influent article intitulé « Sur les dangers des perroquets stochastiques : Les modèles de langage peuvent-ils être trop volumineux? », qui offrait une perspective critique au sujet des implications éthiques, sociales et environnementales des modèles de langage en début 2021, soit près de deux ans avant la sortie de ChatGPT. Elle coanime également le balado Mystery AI Hype Theater 3000, qui décortique l’emballement à propos de l’IA.


Allons droit au but : les grands modèles de langage sont-ils conscients?

Non. À la base, un modèle de langage est un système qui modélise la distribution des mots dans des textes. La manière dont ces modèles sont actuellement utilisés repose en quelque sorte sur le procédé inverse : proposer des suites plausibles au texte qui leur est soumis. Ce n’est pas de la conscience.

Y a-t-il une nuance entre le fait de parler, d'une part, de conscience et, d'autre part, de choses comme l'intelligence ou la compréhension?

Ce sont tous des concepts différents et mal définis. Si nous voulons parler de compréhension, nous devons la définir : dans mon travail universitaire, je définis la compréhension du langage comme la mise en correspondance entre le langage et des concepts à l'extérieur du langage.

Une grande partie du tour de passe-passe des grands modèles de langage, c'est que tout n’est que du langage. Quand le modèle semble comprendre, en réalité, c'est la personne qui l'utilise qui fait tout le travail de compréhension et tout le travail de création de sens.

Lorsqu'on entre du texte dans un grand modèle de langage et que du texte en ressort, on donne du sens à ce texte de la même manière qu'on donne du sens à un texte provenant d'une personne : on s’imagine un esprit doté d’une intention communicative à l'origine de ce texte.

Lorsqu'il s'agit d'une autre personne, ce n'est pas faux d'imaginer un esprit. On pourrait se tromper quant à son intention communicative, mais souvent, nous sommes assez bons pour la deviner correctement. Lorsqu’il s'agit d'un grand modèle de langage, il n'y a pas du tout d'esprit, donc nous créons nous-mêmes cette compréhension.

Cet article a initialement été publié dans l'édition du 9 mars de l'infolettre des Décrypteurs. Pour obtenir des contenus exclusifs comme celui-ci ainsi que des analyses sur tout ce qui touche la désinformation web, abonnez-vous en cliquant ici.

Vous avez inventé le terme « perroquet stochastique » pour décrire les grands modèles de langage. Pouvez-vous expliquer ce que cela signifie?

Dans l'expression « perroquet stochastique », le mot « perroquet » fait référence au verbe parroting en anglais, qui signifie « répéter sans comprendre ». Le but ici n’est pas d’insulter les perroquets, qui sont de merveilleuses créatures avec leur propre vie intérieure! (Rires)

« Stochastique » signifie « aléatoire », selon un calcul de probabilités. Ainsi, lorsque les grands modèles de langage sont utilisés pour produire du texte, nous les utilisons pour distribuer les mots les plus probables dans une situation donnée pour ensuite les choisir aléatoirement. Mais tous les mots n'ont pas une chance égale d’être choisis : certains sont plus susceptibles de sortir que d’autres.

Qu'y a-t-il de dangereux ou de risqué dans le fait de croire que les grands modèles de langage sont conscients?

Sur le plan individuel, si nous tombons dans l'idée selon laquelle les modèles de langage pensent, raisonnent, sont conscients, ont des idées et ont accès à beaucoup d'informations, nous nous prédisposons à voir de mauvaises informations comme s'il s'agissait de bonnes informations, et cela peut être nuisible. Imaginez quelqu'un qui demande des conseils médicaux à ChatGPT et qui suit ces conseils ou quelqu’un qui suit une recette générée par l’IA qui affirme que du poulet doit être cuit saignant.

Sur le plan sociétal, nous voyons beaucoup de suggestions selon lesquelles les robots conversationnels pourraient être utilisés comme des enseignants-robots, des thérapeutes-robots, des avocats-robots ou des médecins-robots. Cela ne fonctionnera tout simplement pas. Mais si suffisamment de gens croient que cela pourrait fonctionner, nos gouvernements pourraient s'en sortir en comblant les trous dans le filet social avec des systèmes qui ne devraient pas servir à cela.

Pourquoi les gens de l'industrie de l’IA utilisent-ils un vocabulaire qui prête des caractéristiques humaines aux modèles de langage alors qu'ils comprennent très bien comment ces systèmes fonctionnent?

C'est un phénomène intéressant, n'est-ce pas? Certaines personnes sont réellement tombées dans ce type de raisonnement, alors que d’autres semblent le faire. Commençons par celles qui semblent le faire : les entreprises qui construisent ces modèles ont certainement intérêt à ce que le public pense que ceux-ci sont beaucoup plus puissants qu’ils ne le sont. Ça facilite leur vente.

Sinon, je pense que les ingénieurs qui les ont conçus, en général, ne sont pas linguistes, donc ils ne sont pas sensibles à la manière dont fonctionne le langage. Lorsque le système dit quelque chose qui semble impressionnant – par exemple, s’il semble affirmer sa propre conscience –, cela semble trop impressionnant pour être le fruit du hasard. Ils ne prennent pas le recul nécessaire pour constater qu'ils sont ceux qui donnent un sens à ce langage.

Et il y a aussi la possibilité que les gens qui construisent ces modèles veulent tout simplement croire qu'ils ont créé quelque chose de vraiment, vraiment cool.

Précision : une précédente version de ce texte citait erronément un différent article d'Emily Bender. Les corrections nécessaires ont été apportées.