Effet ELIZA

Effet ELIZA

En informatique, l'effet ELIZA, désigne la tendance à assimiler de manière inconsciente le comportement d'un ordinateur à celui d'un être humain.

Dans sa forme spécifique, l'effet ELIZA désigne uniquement « la prédisposition à attribuer à des suites de symboles générés par ordinateur (en particulier à des mots) plus de sens qu'ils n'en ont réellement »[1]. Douglas Hofstadter donne un exemple simple pour illustrer la forme spécifique de l'effet ELIZA : un distributeur automatique qui affiche « MERCI » à la fin d'une transaction. Certaines personnes pourraient penser que la machine exprime sa gratitude ; or, elle ne fait qu'afficher une suite de symboles pré-programmés[1].

Plus généralement, l'effet ELIZA se réfère à une situation[2],[3] où l'utilisateur reconnaît aux systèmes informatiques « des qualités intrinsèques et des capacités qu'un logiciel ne peut posséder »[4] ou « pense que les mots et autres informations générées par le programmes ont été induits par une cause déterminée alors qu'il n'existe en réalité aucun rapport de cause à effet. »[5]. La forme générale et spécifique de l'effet ELIZA apparaissent même lorsque les utilisateurs sont conscients de la nature déterminée des programmations générées par le système. D'un point de vue psychologique, l'effet ELIZA est le résultat d'une dissonance cognitive subtile entre la conscience de l'utilisateur vis-à-vis des limites de programmation et son comportement à l'égard des informations générées par le programme[6]. La découverte de l'effet ELIZA marque une évolution cruciale dans l'intelligence artificielle qui démontre l'utilité du principe d'ingénierie sociale face à la programmation explicite pour passer un test de Turing[7].

Sommaire

Origine

L'effet ELIZA tire son nom du chatterbot ELIZA, élaboré en 1966 par Joseph Weizenbaum, informaticien au MIT (Institut de technologie du Massachusetts). Lors de l'exécution du script DOCTOR créé par Joseph Weizenbaum, ELIZA imite un psychothérapeute rogérien, en reformulant fréquemment les réponses du « patient » en questions :

Humain : C'est mon petit ami qui m'a dit de te parler.
ELIZA : Votre petit ami vous a dit de me parler ?
Humain : Il dit que je suis souvent déprimée.
ELIZA : Je suis navrée d'apprendre que vous êtes déprimée.
Humain : C'est vrai. Je suis malheureuse.
ELIZA : Pensez-vous que me parler vous aidera à ne plus être malheureuse[8]?

Bien qu'il soit conçu uniquement pour soutenir une « conversation en langage naturel »[9], le script DOCTOR du programme ELIZA serait parvenu à déclencher une réponse émotionnelle de la part des utilisateurs. En interagissant avec le programme, ces derniers ont commencé à attribuer à ELIZA des qualités de compréhension et une certaine motivation[10]. Comme Weizenbaum l'écrivit plus tard : « Je ne m'étais jamais rendu compte que ... de si courtes interactions avec un programme informatique relativement simple risquaient d'induire des pensées délirantes chez des personnes pourtant normales. »[11]. En effet, le programme ELIZA n'avait pas été initialement conçu pour susciter ce type de réactions. Après observation, les chercheurs ont découvert que les utilisateurs pensent inconsciemment que les questions d'ELIZA reflétent une implication émotionnelle et un certain intérêt pour les sujets évoqués, même s'ils sont conscients qu'ELIZA ne simule pas l'émotion[12].

Articles connexes

Notes et références

Cet article est fondé sur une traduction de la Free On-line Dictionary of Computing et est utilisé avec permission selon la GFDL.

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « ELIZA effect » (voir la liste des auteurs)
  • (en) Douglas Hofstadter, Fluid Concepts and Creative Analogies : Computer Models of the Fundamental Mechanisms of Thought, New York, Basic Books, 1995, « Preface 4: The Ineradicable Eliza Effect and Its Dangers » 
  • (en) S Turkle, Life on the screen- Identity in the Age of the Internet, Londres, Phoenix Paperback, 1997, « Eliza Effect: tendency to accept computer responses as more intelligent than they really are » 
  • (en) Effet ELIZA sur the Jargon File version 4.4.7.. Consulté le 8 Octobre 2006

Notes

  1. a et b (en) Hofstadter, Douglas R., Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought, New York, Basic Books, 1996 (ISBN 978-0-465-02475-9) (LCCN 93044294) [lire en ligne], « Preface 4 The Ineradicable Eliza Effect and Its Dangers,Epilogue », p. 157 
  2. (en) Tom Fenton-Kerr, Computation for Metaphors, Analogy, and Agents, Springer, 1999, p. 156 :

    « Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction. »

     
  3. (en) Hamid R. Ekbia, Artificial Dreams: The Quest for Non-Biological Intelligence, Cambridge, Cambridge University Press, 2008, 1re éd., relié (ISBN 978-0-521-87867-8) (LCCN 2007045450) [lire en ligne], p. 8 
  4. W. King, Technical Memorandum M-95-1, University of Washington, 1995 
  5. (en) William B. Rouse et Kenneth R. Boff, Organizational Simulation, Hoboken, Wiley-IEEE, 2005 (ISBN 978-0-471-73943-2) [lire en ligne], p. 308–309 :

    « This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do. »

     
  6. (en) Hamid R. Ekbia, Artificial Dreams: The Quest for Non-Biological Intelligence, Cambridge, Cambridge University Press, 2008, 1re éd., relié (ISBN 978-0-521-87867-8) (LCCN 2007045450) [lire en ligne], p. 156 :

    « But people want to believe that the program is "seeing" a football game at some plausible level of abstraction. The words that (the program) manipulates are so full of associations for readers that they CANNOT be stripped of all their imagery. Collins of course knew that his program didn't deal with anything resembling a two-dimensional world of smoothly moving dots (let alone simplified human bodies), and presumably he thought that his readers, too, would realize this. He couldn't have suspected, however, how powerful the Eliza effect is. »

     
  7. (en) Robert Trappl, Paolo Petta et Sabine Payr, Emotions in Humans and Artifacts, Cambridge, Mass., MIT Press, 2002 (ISBN 978-0-262-20142-1) [lire en ligne], p. 353publisher=MIT Press :

    « The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters. »

     
  8. (en)dialogues with colorful personalities of early ai. Consulté le 2007-07-30
  9. (en)Joseph Weizenbaum, « ELIZA--A Computer Program For the Study of Natural Language Communication Between Man and Machine », dans Communications of the ACM, Massachusetts Institute of Technology, vol. 9, janvier 1966, p. 36 [texte intégral, lien DOI (pages consultées le 2008-06-17)] 
  10. (en) Lucy A. Suchman, Plans and Situated Actions: The problem of human-machine communication, Cambridge, Cambridge UniversityPress, 1987, poche (ISBN 978-0-521-33739-7) (LCCN 87008013) [lire en ligne (page consultée le 2008-06-17)], p. 24 
  11. (en) Joseph Weizenbaum, Computer power and human reason: from judgment to calculation, W. H. Freeman, 1976, p. 7 
  12. (en)Billings, Lee : Rise of Roboethics, Seed (2007-07-16). « (Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems - a phenomenon now known as the "Eliza Effect." »

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Effet ELIZA de Wikipédia en français (auteurs)

Игры ⚽ Нужен реферат?

Regardez d'autres dictionnaires:

  • Eliza — Exemple de conversation avec ELIZA sous Emacs ELIZA est un célèbre programme informatique écrit par Joseph Weizenbaum en 1966, qui simulait un psychothérapeute rogérien en reformulant la plupart des affirmations du « patient » en… …   Wikipédia en Français

  • ELIZA — Exemple de conversation avec ELIZA sous Emacs. En intelligence artificielle, ELIZA est un programme informatique écrit par Joseph Weizenbaum en 1966, qui simulait un psychothérapeute rogérien en reformulant la plupart des affirmations du… …   Wikipédia en Français

  • Eliza, comtesse de Feuillide — Eliza Hancock Eliza Hancock (22 décembre 1761 1813), puis Eliza de Feuillide après son premier mariage en 1781, puis Eliza Austen après son second mariage en 1797, est la cousine germaine de la romancière anglaise Jane Austen. Née aux Indes, elle …   Wikipédia en Français

  • Eliza Austen — Eliza Hancock Eliza Hancock (22 décembre 1761 1813), puis Eliza de Feuillide après son premier mariage en 1781, puis Eliza Austen après son second mariage en 1797, est la cousine germaine de la romancière anglaise Jane Austen. Née aux Indes, elle …   Wikipédia en Français

  • Eliza Hancock — (22 décembre 1761 1813), puis Eliza de Feuillide après son premier mariage en 1781, puis Eliza Austen après son second mariage en 1797, est la cousine germaine de la romancière anglaise Jane Austen. Née aux Indes, elle arrive en Angleterre en… …   Wikipédia en Français

  • Eliza de Feuillide — Pour les articles homonymes, voir Hancock (homonymie), Famille Capot de Feuillide et Austen. Portrait d Eliza Hancock. Eliza Hancock, devenue Eliza de Feuillid …   Wikipédia en Français

  • Agent Conversationnel — Un agent conversationnel est un agent (informatique) qui dialogue avec un utilisateur. La recherche sur cette Interface Homme machine est influencée par la compétition sur le test de Turing (1950) : donner l illusion qu un programme pense… …   Wikipédia en Français

  • Chatterbot — Agent conversationnel Un agent conversationnel est un agent (informatique) qui dialogue avec un utilisateur. La recherche sur cette Interface Homme machine est influencée par la compétition sur le test de Turing (1950) : donner l illusion qu …   Wikipédia en Français

  • Chatterbox — Agent conversationnel Un agent conversationnel est un agent (informatique) qui dialogue avec un utilisateur. La recherche sur cette Interface Homme machine est influencée par la compétition sur le test de Turing (1950) : donner l illusion qu …   Wikipédia en Français

  • Liste Des Effets Scientifiques — Ceci est une liste des effets scientifiques, classés par ordre alphabétique. Sommaire : Haut A B C D E F G H I J K L M N O P Q R S T U V W X Y Z A …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”