banner
Maison / Nouvelles / « Un certain danger s'y cache » : comment l'inventeur du premier chatbot s'est retourné contre l'IA
Nouvelles

« Un certain danger s'y cache » : comment l'inventeur du premier chatbot s'est retourné contre l'IA

May 30, 2023May 30, 2023

L'informaticien Joseph Weizenbaum était là à l'aube de l'intelligence artificielle – mais il était également catégorique sur le fait qu'il ne fallait jamais confondre les ordinateurs et les humains.

En 1966, un professeur du MIT nommé Joseph Weizenbaum a créé le premier chatbot. Il l'a choisi dans le rôle d'un psychothérapeute. Un utilisateur tapait un message sur une machine à écrire électrique connectée à un ordinateur central. Au bout d'un moment, le « psychothérapeute » répondait.

Utilisateur : Les hommes sont tous pareils.Chatbot : DE QUELLE MANIÈRE Utilisateur : Ils nous embêtent toujours à propos de quelque chose ou d'autre.Chatbot : POUVEZ-VOUS PENSER À UN EXEMPLE PRÉCIS Utilisateur : Eh bien, mon copain m'a fait venir ici.Chatbot : VOTRE PETIT AMI VOUS A FAIT VENIR ICIUtilisateur : Il dit que je suis déprimé la plupart du temps. Chatbot : JE SUIS DÉSOLÉ D'APPENDRE QUE VOUS ÊTES DÉPRESSÉ

Weizenbaum a publié cet exemple d'échange dans un article de journal expliquant le fonctionnement du chatbot. Le logiciel était relativement simple. Il a examiné les entrées de l'utilisateur et appliqué un ensemble de règles pour générer une réponse plausible. Il a appelé le programme Eliza, d'après Eliza Doolittle dans Pygmalion. La bouquetière cockney de la pièce de George Bernard Shaw utilise le langage pour produire une illusion : elle élève son élocution au point de pouvoir passer pour une duchesse. De même, Eliza parlait de manière à produire l’illusion qu’elle comprenait la personne assise devant la machine à écrire.

"Certains sujets ont été très difficiles à convaincre qu'Eliza (avec son scénario actuel) n'est pas humaine", a écrit Weizenbaum. Dans un article de suivi paru l'année suivante, il a été plus précis : un jour, dit-il, sa secrétaire a demandé à passer du temps avec Eliza. Après quelques instants, elle demanda à Weizenbaum de quitter la pièce. "Je crois que cette anecdote témoigne du succès avec lequel le programme entretient l'illusion de la compréhension", a-t-il noté.

Eliza n'est pas vraiment obscure. Cela a fait sensation à l’époque – le Boston Globe a envoyé un journaliste s’asseoir devant la machine à écrire et a publié un extrait de la conversation – et reste l’un des développements les plus connus de l’histoire de l’informatique. Plus récemment, la sortie de ChatGPT a renouvelé l'intérêt pour celui-ci. L’année dernière, Eliza a été invoquée dans le Guardian, le New York Times, l’Atlantic et ailleurs. La raison pour laquelle les gens pensent encore à un logiciel vieux de près de 60 ans n'a rien à voir avec ses aspects techniques, qui n'étaient pas terriblement sophistiqués même selon les standards de l'époque. Eliza a plutôt mis en lumière un mécanisme de l’esprit humain qui affecte fortement nos relations avec les ordinateurs.

Au début de sa carrière, Sigmund Freud a remarqué que ses patients tombaient toujours amoureux de lui. Ce n'était pas parce qu'il était exceptionnellement charmant ou beau, conclut-il. Au lieu de cela, quelque chose de plus intéressant se passait : le transfert. En bref, le transfert fait référence à notre tendance à projeter des sentiments concernant quelqu'un de notre passé sur quelqu'un de notre présent. Bien que cela soit amplifié par le fait d’être en psychanalyse, c’est une caractéristique de toutes les relations. Lorsque nous interagissons avec d’autres personnes, nous amenons toujours un groupe de fantômes à la rencontre. Le résidu de notre vie antérieure, et surtout de notre enfance, est l’écran à travers lequel nous nous voyons les uns les autres.

Ce concept permet de donner un sens aux réactions des gens envers Eliza. Weizenbaum était tombé sur la version informatisée du transfert, dans laquelle les gens attribuaient la compréhension, l'empathie et d'autres caractéristiques humaines au logiciel. Bien qu’il n’ait jamais utilisé le terme lui-même, il avait une longue histoire avec la psychanalyse qui a clairement éclairé la manière dont il interprétait ce qui allait être appelé « l’effet Eliza ».

À mesure que les ordinateurs sont devenus plus performants, l’effet Eliza n’a fait que se renforcer. Prenez la façon dont de nombreuses personnes se rapportent à ChatGPT. À l’intérieur du chatbot se trouve un « grand modèle de langage », un système mathématique entraîné pour prédire la prochaine chaîne de caractères, mots ou phrases dans une séquence. Ce qui distingue ChatGPT n'est pas seulement la complexité du grand modèle de langage qui le sous-tend, mais aussi sa voix étrangement conversationnelle. Comme le dit Colin Fraser, data scientist chez Meta, l'application est « conçue pour vous tromper, pour vous faire croire que vous parlez à quelqu'un qui n'est pas réellement là ».