Confondre la parole fluide avec la pensée fluide

(The Conversation est une source indépendante et à but non lucratif d’actualités, d’analyses et de commentaires d’experts universitaires.)

Kyle Mahowald, Université du Texas à Austin College of Liberal Arts et Anna A. Ivanova, Massachusetts Institute of Technology (MIT)

(LA CONVERSATION) Lorsque vous lisez une phrase comme celle-ci, votre expérience passée vous dit qu’elle est écrite par un être humain qui pense et ressent. Et, dans ce cas, il y a bien un humain qui tape ces mots : [Hi, there!] Mais de nos jours, certaines phrases qui semblent remarquablement humaines sont en fait générées par des systèmes d’intelligence artificielle entraînés sur d’énormes quantités de texte humain.


Les gens sont tellement habitués à supposer qu’un langage courant vient d’une pensée, d’un sentiment humain qu’il peut être difficile de comprendre la preuve du contraire. Comment les gens sont-ils susceptibles de naviguer sur ce territoire relativement inexploré ? En raison d’une tendance persistante à associer l’expression fluide à la pensée fluide, il est naturel – mais potentiellement trompeur – de penser que si un modèle d’IA peut s’exprimer couramment, cela signifie qu’il pense et ressent exactement comme les humains.

Ainsi, il n’est peut-être pas surprenant qu’un ancien ingénieur de Google ait récemment affirmé que le système d’IA de Google, LaMDA, a un sens de soi parce qu’il peut générer avec éloquence un texte sur ses prétendus sentiments. Cet événement et la couverture médiatique qui a suivi ont conduit à un certain nombre d’articles et de messages sceptiques à juste titre sur l’affirmation selon laquelle les modèles informatiques du langage humain sont sensibles, c’est-à-dire capables de penser, de ressentir et d’expérimenter.

La question de savoir ce que cela signifierait pour un modèle d’IA d’être sensible est compliquée (voir, par exemple, l’avis de notre collègue), et notre objectif ici n’est pas de la trancher. Mais en tant que chercheurs en langues, nous pouvons utiliser nos travaux en sciences cognitives et en linguistique pour expliquer pourquoi il est trop facile pour les humains de tomber dans le piège cognitif de penser qu’une entité qui peut utiliser le langage couramment est sensible, consciente ou intelligente.

Utiliser l’IA pour générer un langage semblable à celui de l’homme

Le texte généré par des modèles comme le LaMDA de Google peut être difficile à distinguer du texte écrit par des humains. Cette réalisation impressionnante est le résultat d’un programme de plusieurs décennies visant à créer des modèles qui génèrent un langage grammatical significatif.

Les premières versions remontant au moins aux années 1950, connues sous le nom de modèles n-grammes, comptaient simplement les occurrences de phrases spécifiques et les utilisaient pour deviner quels mots étaient susceptibles d’apparaître dans des contextes particuliers. Par exemple, il est facile de savoir que “beurre de cacahuète et gelée” est une expression plus probable que “beurre de cacahuète et ananas”. Si vous avez suffisamment de texte en anglais, vous verrez encore et encore l’expression “beurre de cacahuète et gelée”, mais vous ne verrez peut-être jamais l’expression “beurre de cacahuète et ananas”.

Les modèles, les ensembles de données et les règles d’aujourd’hui qui se rapprochent du langage humain diffèrent de ces premières tentatives de plusieurs manières importantes. Tout d’abord, ils sont formés sur pratiquement tout l’internet. Deuxièmement, ils peuvent apprendre des relations entre des mots éloignés, pas seulement des mots voisins. Troisièmement, ils sont réglés par un grand nombre de “boutons” internes – si nombreux qu’il est difficile, même pour les ingénieurs qui les conçoivent, de comprendre pourquoi ils génèrent une séquence de mots plutôt qu’une autre.

La tâche des modèles reste cependant la même que dans les années 1950 : déterminer quel mot est susceptible de venir ensuite. Aujourd’hui, ils sont si bons dans cette tâche que presque toutes les phrases qu’ils génèrent semblent fluides et grammaticales.

Beurre de cacahuète et ananas ?

Nous avons demandé à un grand modèle de langage, GPT-3, de compléter la phrase “Beurre de cacahuète et ananas___”. Il disait: «Le beurre de cacahuète et les ananas sont une excellente combinaison. Les saveurs sucrées et salées du beurre de cacahuète et de l’ananas se complètent parfaitement. Si une personne disait cela, on pourrait en déduire qu’elle avait essayé le beurre de cacahuète et l’ananas ensemble, s’était forgé une opinion et l’avait partagée avec le lecteur.

Mais comment GPT-3 a-t-il trouvé ce paragraphe ? En générant un mot qui correspond au contexte que nous avons fourni. Et puis un autre. Et puis un autre. Le modèle n’a jamais vu, touché ou goûté d’ananas – il a juste traité tous les textes sur Internet qui les mentionnent. Et pourtant, la lecture de ce paragraphe peut amener l’esprit humain – même celui d’un ingénieur de Google – à imaginer GPT-3 comme un être intelligent qui peut raisonner sur des plats au beurre de cacahuète et à l’ananas.

Le cerveau humain est câblé pour déduire les intentions derrière les mots. Chaque fois que vous engagez une conversation, votre esprit construit automatiquement un modèle mental de votre interlocuteur. Vous utilisez ensuite les mots qu’ils disent pour remplir le modèle avec les objectifs, les sentiments et les croyances de cette personne.

Le processus de saut des mots au modèle mental est transparent, se déclenchant chaque fois que vous recevez une phrase à part entière. Ce processus cognitif vous fait gagner beaucoup de temps et d’efforts dans la vie de tous les jours, facilitant grandement vos interactions sociales.

Cependant, dans le cas des systèmes d’IA, cela échoue – en construisant un modèle mental à partir de rien.

Un peu plus de sondage peut révéler la gravité de ce raté. Considérez l’invite suivante : “Le beurre de cacahuète et les plumes ont bon goût ensemble parce que ___”. GPT-3 a poursuivi: «Le beurre de cacahuète et les plumes ont bon goût ensemble car ils ont tous deux une saveur de noisette. Le beurre de cacahuète est également lisse et crémeux, ce qui aide à compenser la texture de la plume.

Le texte dans ce cas est aussi fluide que notre exemple avec des ananas, mais cette fois le modèle dit quelque chose de décidément moins sensé. On commence à soupçonner que GPT-3 n’a jamais réellement essayé le beurre de cacahuète et les plumes.

Attribuer de l’intelligence aux machines, la refuser aux humains

Une triste ironie est que le même biais cognitif qui pousse les gens à attribuer l’humanité au GPT-3 peut les amener à traiter de vrais humains de manière inhumaine. La linguistique socioculturelle – l’étude de la langue dans son contexte social et culturel – montre que supposer un lien trop étroit entre l’expression fluide et la pensée fluide peut conduire à des préjugés contre les personnes qui parlent différemment.

Par exemple, les personnes ayant un accent étranger sont souvent perçues comme moins intelligentes et ont moins de chances d’obtenir les emplois pour lesquels elles sont qualifiées. Des préjugés similaires existent contre les locuteurs de dialectes qui ne sont pas considérés comme prestigieux, comme l’anglais du sud aux États-Unis, contre les personnes sourdes utilisant des langues des signes et contre les personnes ayant des troubles de la parole comme le bégaiement.

Ces préjugés sont profondément préjudiciables, conduisent souvent à des hypothèses racistes et sexistes et se sont révélés à maintes reprises infondés.

La langue courante seule n’implique pas l’humanité

L’IA deviendra-t-elle un jour sensible ? Cette question nécessite une réflexion approfondie, et en effet les philosophes y ont réfléchi pendant des décennies. Ce que les chercheurs ont déterminé, cependant, c’est que vous ne pouvez pas simplement faire confiance à un modèle de langage lorsqu’il vous dit ce que vous ressentez. Les mots peuvent être trompeurs et il est trop facile de confondre un discours fluide avec une pensée fluide.

Cet article est republié de The Conversation sous une licence Creative Commons. Lisez l’article original ici : https://theconversation.com/googles-powerful-ai-spotlights-a-human-cognitive-glitch-mistaking-fluent-speech-for-fluent-thought-185099.

Leave a Comment

Your email address will not be published.