Sonntag21. Dezember 2025

Demaart De Maart

ForumDer Eliza-Effekt: Michael Jäckel darüber, warum Menschen Maschinen Gefühle zuschreiben wollen

Forum / Der Eliza-Effekt: Michael Jäckel darüber, warum Menschen Maschinen Gefühle zuschreiben wollen
  Foto: dpa/Uwe Anspach

Jetzt weiterlesen!

Für 0,99 € können Sie diesen Artikel erwerben:

Oder schließen Sie ein Abo ab:

ZU DEN ABOS

Sie sind bereits Kunde?

Wenn bestimmte Zusammenhänge ein Erstaunen auslösen, neigen wir dazu, sie sprachlich zu verewigen. Ein markanter Begriff soll dann mehr als tausend Worte sagen. In der Wissenschaft gehört es zu den guten Regeln der Kommunikation, darüber eine Beobachtung anschaulich zu machen. Ein Beispiel ist der Eliza-Effekt. Er verdankt seine Entstehung einem seinerzeit spektakulären Ansinnen. Ein Computer sollte so programmiert werden, dass er auf Fragen, die ihm gestellt wurden, plausibel antwortete. Es war die Geburtsstunde von etwas, das heute Chatbot genannt wird: ein „künstlicher“ Dialogpartner. Neben Eliza gab es noch Doctor, spezialisiert auf psychologische Themen. Verschiedene Gesprächstypen sollten folglich simuliert werden. Wir sind in den 1960er Jahren.

Der Erfinder, der Computerpionier und Informatiker Joseph Weizenbaum (1923-2008), nannte sein Genie also „Eliza“. Heute präsentiert das nach ihm benannte Institut in Berlin auf seiner Website eine gute Erläuterung dessen, was da bereits vor mehr als einem halben Jahrhundert seinen Anfang nahm. Denn der Eliza-Effekt beschreibt das Verlangen des Menschen, seinem Austausch mit elektronisch gesteuerten Maschinen/Systemen eine zugleich menschlich-emotionale Komponente zu verleihen. Vielleicht darf es als eine Spielart der parasozialen Interaktion gelten. Damit hatten in den 1950er Jahren US-amerikanische Forscher eine Intimität auf Distanz beschrieben, die sich zwischen einem isolierten Publikum der Massenmedien und den dortigen Protagonisten – Nachrichtensprecher, Quizmaster – auftaten.

Seele der Technologie

Zurück zu Eliza: Auf Fragen an den Computer gab es Antworten, die über einen Drucker ausgegeben wurden. Die Antwort wiederum war abhängig davon, was die Frage an Schlüsselinformationen enthielt: Mutter, Freund, Probleme, traurig usw. Die Faszination über das Mögliche und die Einsicht in die Grenzen dieser Dialoge führte dennoch in eine Zuschreibung von Qualitäten, die de facto nicht gegeben waren. Der Erfinder war zudem erstaunt über die Offenheit der Menschen und ihre Bereitschaft, sehr private Dinge in diesem Hin und Her preiszugeben. Früh entstand daher eine tiefe Sorge über die Wirkmacht eines Systems, das sich damals noch in den Kinderschuhen befand. Zu der amüsanten Komponente dieses Beziehungsaufbaus gehört die Gefahr, sich über diese Nähe doch mehr und mehr vereinnahmen zu lassen. Weizenbaum wusste, wovon er sprach. Er gehörte zu jenen Forschern, die den Grundstein für das Internet legten. Wenn sich besondere Formen der Medienabhängigkeit zeigen, also eine problematische Mensch-Maschine-Beziehung beobachtet werden kann, ist heute noch die Erinnerung an die Erfahrungen mit Eliza sehr wahrscheinlich. Technik ist mehr als eine Erweiterung unseres Körpers durch Hilfsmittel.

Die Technologie erhält offenbar eine Seele, wir verwenden etwa Kosenamen. Die formalen Befehle werden ergänzt durch „Nun komm schon!“, „Heute nicht so gut drauf, oder was?“ usw. Die Kommunikation ist also eher nicht kaltherzig. Es ist auch mehr als Respekt, der hier artikuliert wird. Wir schreiben etwas zu, das wir offenbar als wünschenswert und der Sache dienlich betrachten. Das erklärt auch, warum Technologie die Rolle des Betreuers übernehmen kann und umgekehrt der Mensch sich zum Betreuer der Technologie entwickelt. Das zeigte sich vor vielen Jahren beispielsweise in der Faszination für das Tamagotchi, das in den 1990er Jahren erhebliche Kontroversen auslöste, aber eben zur Geschichte emotionaler Bindungen an Technologien gehört. Ein kleines Gerät mutiert zu einem kleinen Haustier, verlangt nach Zuwendung, täuscht Grade unterschiedlicher Lebendigkeit vor und erweckt in seinem Gegenüber die Vorstellung, dass hier Bedürfnisse am Werk sind. Jedenfalls musste das kleine Gerät z. B. „gefüttert“ werden. Man sollte lernen, sich zu kümmern.

Und siehe da: Ein weiterer Effekt war geboren: der Turing-Tamagotchi-Effekt. In diesem Begriff vereint sich die Vision von Alan Turing, der als ein weiterer Pionier der Informatik besondere Ansprüche an die Qualität von denkenden Maschinen legte. Einem größeren Publikum wurde seine Idee über den Film „The Imitation Game“ (2015) bekannt. So sollte das, was später Turing-Test genannt wurde, auch ursprünglich heißen. Denn es ging um die Fähigkeit einer Maschine, menschliche Kommunikation nachzuahmen. Heute, im Zeitalter der künstlichen Intelligenz, erlebt dieses Spiel eine Renaissance in der Frage, ob mein Gegenüber ein Mensch sei oder nicht. Noch weitergehend werden wir zunehmend aufgefordert, einem Service-Bot, also einem digitalen Assistenten in einer beliebigen Hotline gegenüber den Nachweis zu erbringen, dass wir nicht ein Roboter sind: „Wie viele Zebrastreifen sehen Sie?“

Soziale Roboter

Situationen, in denen Menschen sich mit einem maschinellen Gegenüber arrangieren müssen, werden aber nicht seltener werden. Auch dort, wo wir auf Nähe und Gemeinschaft hoffen, wird immer häufiger darüber nachgedacht, ob der Einsatz von Robotersystemen helfen kann: in der Pflege. Vom Gesicht des Roboters bis zu den Algorithmen, die ihn steuern, greift auch hier das Menschenähnliche in die Gestaltung ein. Wenn etwas erledigt werden soll, gehört zur Ausführung auch eine dem Auftrag angemessene Rückmeldung (z. B. „Ich muss das Essen eben holen.“). Und Eliza ist auch nicht weit, wenn diesem täglichen Miteinander ein emotionaler Rahmen gegeben wird. Über das Aufgabenspektrum wird kontrovers diskutiert. Im Umfeld einer personenbezogenen Individualpflege, die in vielfacher Hinsicht ihre Besonderheiten hat und trotz standardisierter Abläufe immer auch von Details lebt, kann der Einsatz sogenannter sozialer Roboter hilfreich sein. Einen Palro-Effekt hat bislang noch niemand formuliert. Aber der Einsatz eines Service-Roboters mit diesem Namen wird in Japan bereits seit Jahren praktiziert: Spiele, Rhythmusübungen, Rätsel. Natürlich werden hier sofort die Grenzen des Einsatzes hervorgehoben. Die Erfahrungen zeigen, dass erneut das Menschliche die Technik einfängt. Palro wird vor allem von Heimbewohnerinnen als Kind betrachtet. Paro, eine kleine Robbe, soll ebenso die tatsächliche Pflege entlasten und die Pflegeempfänger in eine Rolle des Pflegenden bringen. Es wird also viel experimentiert und stets mitbedacht, dass die Akzeptanz nicht grenzenlos ist. Es menschelt eben überall.

Michael Jäckel ist Professor für Soziologie. Von 2011 bis 2023 war er Präsident der Universität Trier.
Michael Jäckel ist Professor für Soziologie. Von 2011 bis 2023 war er Präsident der Universität Trier. Foto: Editpress/Julien Garroy
JJ
27. März 2025 - 9.56

Habe schon oft mit Bäumen oder Felsen geredet wenn ich auf längeren Touren unterwegs war. Ist aber kein Grund zur Sorge,sagte mir mein Arzt.
Am Ende redet man nur mit sich selbst. Aber Achtung. Wenn man von den Dingern eine Antwort bekommt,dann wird´s kritisch.