KI-Forscher im Interview

„ChatGPT verführt uns zu unkritischem Denken“

Ein Gespräch mit Prof. Georg Mein, Direktor des neu gegründeten Institute for Digital Ethics (ULIDE) an der Universität Luxemburg, über die Gefahr, die KI für unsere Demokratie darstellt, die Notwendigkeit eines Social-Media-Verbots und die Frage, ob Luc Friedens Techno-Optimismus wirklich gerechtfertigt ist.

Georg Mein, Direktor des Institute for Digital Ethics, spricht über Social Media Nutzung ab 16 Jahren an Universität Luxemburg.

Georg Mein, Direktor des Institute for Digital Ethics (ULIDE) an der Universität Luxemburg Foto: Editpress/Julien Garroy

Tageblatt: Herr Prof. Mein, Sie haben in einem Beitrag kürzlich davon gesprochen, dass KI eine Gefahr für die Demokratie werden könnte. Was meinen Sie damit?

Prof. Georg Mein: Es gibt immer zwei Seiten, Gefahren und Chancen. Man hat lange gehofft, dass mit dem Internet ein großer Demokratisierungsschub einsetzen würde, weil die Möglichkeiten zur Bürgerbeteiligung dadurch gestärkt werden. Und das ist ja auch in Teilen richtig. Was wir aber in den vergangenen Jahren mit dem Aufkommen der sozialen Netzwerke sehen, ist die Fragmentierung einer vormals geteilten Öffentlichkeit. Empfehlungsalgorithmen als KI-Technologien führen dazu, dass wir uns nicht mehr selbstbestimmt durch diese soziale Medienlandschaft bewegen, weil wir immer eine gefilterte Sicht der Welt bekommen. Daher haben wir heute Probleme damit, überhaupt noch einen gemeinsamen öffentlichen Horizont zu konstruieren. Der jüngst verstorbene Jürgen Habermas hat den Begriff der Öffentlichkeit als eine Sphäre beschrieben, in der Bürger zwischen Zivilgesellschaft und politischem System zusammenkommen, um gemeinsam Meinung zu bilden und staatliches Handeln kritisch zu hinterfragen. Diese Öffentlichkeit lebte von kuratierten Medien – der Tageszeitung, dem Radio, später dem Fernsehen –, die als Gatekeeper fungierten und einen gemeinsamen Kommunikationsraum erst möglich machten. Was wir heute erleben, ist der Zerfall genau dieser Struktur: In einer Medienwelt, in der prinzipiell jeder senden und empfangen kann, gibt es keine Kuratierung mehr – und damit auch keinen gemeinsamen Raum für rationale Meinungsbildung.

Welche Rolle spielt KI dabei?

KI-Technologien wie Large Language Models haben seit dem ChatGPT-Moment Ende 2022 die Interaktion von Menschen und KI auf eine völlig neue Stufe gehoben – was zu verschiedenen Phänomenen führt. Eines bezeichnen wir in der Wissenschaft als „cognitive offloading“. Es ist wahnsinnig bequem, nicht nur Wissen zur Verfügung zu haben, sondern jetzt auch Wissen sprachlich angemessen selbst produzieren zu lassen. Das hat massive Konsequenzen: in der Schule, bei Prüfungen, aber auch im Alltag, weil wir uns in viele komplexe Zusammenhänge nicht mehr selbst reindenken müssen. Positiv daran ist, dass man jetzt Behördenkommunikation wunderbar auslagern kann. Aber es führt eben auch dazu, dass man eine Abkürzung nimmt. Und die KI-Technologie, die diese Abkürzung ermöglicht, ist nicht neutral. Das sind Modelle, die auf bestimmten Daten trainiert werden, die angeleitet werden, bestimmte politische Weltsichten zu vertreten.

Was ist die Gefahr?

Wir nutzen KI-Systeme wie ChatGPT oder den Google-Algorithmus alle extrem unkritisch. Das führt dazu, dass wir auf bestimmten Ebenen als Gesellschaft insgesamt unkritisch werden, weil es eben sehr bequem ist. Der Mensch sucht stets bequeme Lösungen. Schon Kant hat von der bequemen Unmündigkeit gesprochen, die von der Last befreit, selbst denken zu müssen. ChatGPT und andere Modelle verführen uns zu diesem unkritischen Denken. Aber all das, was wir für eine reflektierte kritische Öffentlichkeit brauchen, ist eben anstrengend, es ist unbequem, man muss Ambiguitäten aushalten, man muss auf andere Perspektiven eingehen. All das ist etwas, was wir uns durch die sozialen Netzwerke, aber auch durch den vermehrten Gebrauch von Large Language Models sukzessive abtrainieren.

Ich finde es von Politikern riskant, die disruptive Kraft von KI allein als ökonomisches Glücksversprechen zu verkaufen (…). Wir wissen nicht, wie diese Wette ausgeht.

Schon als das Smartphone populär wurde, hieß es, wir würden kognitive Kapazitäten auslagern.

KI verstärkt und beschleunigt Dynamiken. Platon hat schon über die Schrift philosophiert und sich gefragt, ob es so gut sei, dass wir Wissen, das wir im Kopf haben, in einen Text auslagern. Darüber kann man heute lächeln. Der entscheidende Unterschied bei dieser Medienrevolution ist aber, dass wir nicht nur Wissensbestände in KI auslagern, sondern dass die KI selbsttätig Wissen produziert.

Premierminister Frieden bemüht gerne historische Vergleiche wie die industrielle Revolution, um zu untermauern, dass Technologie immer Fortschritt gebracht hat. Angesichts der Gefahren, die Sie beschreiben: Wie sehen Sie diesen Techno-Optimismus?

Wenn Sie die Gefahren oder Probleme von KI kleinreden wollen, dann reihen Sie diese Technologie ein in eine Geschichte der Medienevolution. Richtig ist aber, dass wir damit zu kurz greifen, weil diese Technologie erheblich disruptiver ist als die Dampfmaschine oder der Telegrafenmast. Der weltweite Optimismus, was KI angeht, basiert auf dem ökonomischen Versprechen, das hinter dieser Technologie steht. Wenn man sieht, was eine Handvoll großer Konzerne im Silicon Valley gerade verdienen, ist das natürlich der Wahnsinn. Da möchte jeder ein Stück vom Kuchen haben. Die Technologie ist aber so disruptiv und entwickelt sich so schnell, dass wir überhaupt nicht absehen können, was in sechs Monaten passieren wird. Wir kennen die nächsten Entwicklungsschritte nicht. Wer hätte gedacht, dass im Silicon Valley auf einmal die Programmierer entlassen werden, weil KI viel besser Codes schreibt? Programmierer, das war doch vor ein paar Jahren noch der einzig sichere Zukunftsjob! (lacht)

Premier Luc Frieden und CEO Arthur Mensch verkünden Zusammenarbeit zwischen Mistral AI und Luxemburger Staat bei offizieller Pressekonferenz

Premier Luc Frieden (r.) verkündet mit CEO Arthur Mensch die Zusammenarbeit zwischen Mistral AI und dem Luxemburger Staat. Foto: Editpress/Alain Rischard

Ich finde es von Politikern riskant, die disruptive Kraft von KI allein als ökonomisches Glücksversprechen zu verkaufen. Es gibt Bereiche in Luxemburg wie den Finanzsektor, der natürlich vom KI-Einsatz und Fintech profitieren wird und das muss man auch fördern. Das ist die große Fortschrittswette und ich kann verstehen, dass man diese Wette eingehen will. Aber man muss sich auch darüber im Klaren sein, dass wir nicht wissen, wie diese Wette ausgeht. Wir wissen nicht, welche Arbeitsplätze KI schaffen und welche sie vernichten wird. Gestern waren es die Programmierer. Vielleicht sind es morgen die Juristen. Wer sich da traut, nur von wirtschaftlichem Fortschritt zu sprechen, der geht ein gewisses Risiko ein.

Europa setzt im weltweiten Wettbewerb auf verantwortungsvolle KI, man will Standards setzen, die sich dann hoffentlich verbreiten. Ist man mit dem AI-Act auf dem richtigen Weg?

Global betrachtet ist es einer der besten Wege, die momentan da sind, er wird ja auch als Vorbild genommen. Der Punkt mit dem EU-AI-Act ist, dass er natürlich an dem Tag, an dem er publiziert wurde, schon veraltet ist. Im Grunde muss dieses Papier ständig aktualisiert und weiterentwickelt werden. Niemand von uns beiden kann sagen, welche Technologien wir in einem Jahr auf dem Markt haben. Wenn ich daran denke, welchen Sprung die KI-Bildbearbeitungsprogramme in kürzester Zeit gemacht haben: Wir können weder den Texten noch den Bildern im Netz noch trauen. Das führt dazu, dass die Bürger die Orientierung verlieren, was überhaupt noch eine sichere Quelle ist. Und da kommen die traditionellen Medien wieder mehr ins Spiel, weil die jetzt die Aufgabe haben, in einem Meer an Informationen eine gewisse Form von Kuratierung zu liefern.

Der Erfolg des Populismus ist für mich kein Zufallsprodukt – er hängt strukturell damit zusammen, wie wir in den vergangenen Jahren zu denken begonnen haben: in verkürzten Formaten, in emotionalen Zuspitzungen, zunehmend ungeduldig gegenüber komplexen Debatten. Wir haben kollektiv ein Stück kritisches Bewusstsein verloren – und das ist der Nährboden, auf dem Desinformation gedeiht.

Glauben Sie an eine Renaissance von traditionellen Medien? Einer Rückkehr des Analogen, des Anfassbaren, unmittelbar Erlebbaren?

Wir erleben gerade eine exponentielle Flut an KI-generierten Texten, Bildern und Musik – und diese Prozesse sind rekursiv: Die KI lernt aus dem, was sie selbst erzeugt hat, und verstärkt sich dabei ständig selbst. In der Musik könnte das Endprodukt dieses Feedback-Loops so etwas wie „Algo-Pop“ sein – technisch makellos, angenehm, bestens geeignet für den Fahrstuhl. Aber eben auch austauschbar. Und genau da liegt, glaube ich, die entscheidende Gegenbewegung: Der Mensch hat immer eine tiefe Orientierung zur Kunst gehabt – nicht zur gefälligen, sondern zur außerordentlichen. Zu etwas, das ihn wirklich berührt, das anders ist, das authentisch ist. Diese Authentizität kann das rein Digitale strukturell nicht einlösen – egal, wie perfekt es klingt oder aussieht. Deshalb ja: Ich glaube an eine Renaissance des Analogen, des Anfassbaren. Es wird eine Sehnsucht entstehen – oder sie ist vielleicht schon im Entstehen – nach Erlebnissen, die real sind, die man körperlich besucht, nicht nur um sie sofort wieder als Content weiterzuteilen. Das ist fast ein bisschen Rousseau: zurück zur unmittelbaren Erfahrung. Nicht als Kulturpessimismus, sondern als ganz natürliche menschliche Reaktion auf eine Welt, die zunehmend simuliert ist.

Wir haben zu Beginn über die Gefahren von Social Media gesprochen. Mit den Erfahrungen aus Ihrer Arbeit für Bee Secure: Ist ein Social-Media-Verbot sinnvoll?

Absolut. Ich denke, dass wir unsere Kinder und Jugendlichen schützen müssen. Man sollte in Europa zu einer einheitlichen Regelung kommen: Soziale Medien erst ab 16 Jahren. Warum? Wenn Sie entwicklungspsychologisch schauen, ist es ganz wichtig, dass Kinder zunächst einmal – bevor sie diesem ganzen Wahnsinn ausgesetzt werden – eine eigenbestimmte Identität ausbilden können in einer Umgebung, die noch halbwegs natürlich ist. Dass sie in einer Schule ohne technologische Unterstützung lernen, zu lesen, zu rechnen, kritisch zu denken. Dass sie ein kritisches Bewusstsein für die Mechanismen der sozialen Netzwerke entwickeln, bevor man sie dort hereinlässt. Und dass man sie auch schützt vor den Inhalten, die dort zugänglich sind: Gewalt und Pornografie. Aber auch politische Einflussnahme. Wer sind denn die erfolgreichsten Parteien in den sozialen Netzwerken? Die Rechtspopulisten. Sie sind die eigentlichen Menschenfänger dieser Plattformen, meisterhaft darin, mit vereinfachten Botschaften unreflektierte Meinungsbildung zu betreiben, der kaum beizukommen ist.

Gerade diese politische Einflussnahme oder auch bewusste Desinformation betrifft ja nicht nur Kinder, sondern auch Erwachsene.

Natürlich. Und das ist vielleicht der beunruhigendste Aspekt. Viele Erwachsene sind genauso verwundbar. Eine ganze Generation, die heute zwischen 18 und 40 ist, wurde von dieser Welle der sozialen Medien erfasst, ohne wirklich darauf vorbereitet zu sein. Die entscheidende Frage ist: Wie erreichen wir diese Leute? Das ist die eigentliche demokratische Herausforderung. Warum kommt die AfD in Rheinland-Pfalz auf 20 Prozent? Ein wesentlicher Teil der Antwort liegt in der Medienwirklichkeit, in der viele dieser Wählerinnen und Wähler leben. Der Erfolg des Populismus ist für mich kein Zufallsprodukt – er hängt strukturell damit zusammen, wie wir in den vergangenen Jahren zu denken begonnen haben: in verkürzten Formaten, in emotionalen Zuspitzungen, zunehmend ungeduldig gegenüber komplexen Debatten. Wir haben kollektiv ein Stück kritisches Bewusstsein verloren – und das ist der Nährboden, auf dem Desinformation so gut gedeiht.

Ich muss die nachwachsende Generation doch erst einmal dazu befähigen, diesen geteilten Horizont herzustellen

Es bräuchte also eine neue Aufklärung für ein neues Zeitalter?

Das sehe ich auch so. Kant hat sich gegen Kirche und absolutistischen Staat gewandt in seiner berühmten Schrift „Was ist Aufklärung?“. Im Grunde hat er sich gefragt: Warum laufen die Leute dem hinterher? Weil es bequem ist, weil es einfacher ist, zu glauben, als zu wissen. Und weil Unmündigkeit ein Zustand ist, in dem ich nicht selbst entscheiden muss. Wir leben momentan in einem Zeitalter, in dem wir es sehr bequem finden, uns durch gewisse Technologien ein Stück weit entmündigen zu lassen. In dem wir das kritische Denken, was anstrengend ist, aufgeben. Und in dem wir vor allen Dingen etwas verlieren, was Kant und Hannah Arendt als Urteilskraft beschrieben haben: das Vermögen, die eigene Position im Lichte der anderen zu betrachten. Eine komplizierte und anstrengende Reflexion, bei der man sich in andere Perspektiven hineinversetzt. Diese Fähigkeit geht uns verloren, weil die gesamte Dynamik in sozialen Netzwerken genau das Gegenteil bewirkt. Dort befinde ich mich in einem spezifischen Raum, der so kuratiert ist, dass ich nur das sehe, was mich wirklich interessiert. Oder das, was mich aufregt. Aber es gibt keine Pluralität der Meinungen, keinen geteilten Horizont mehr. Das halte ich für eine enorme Gefahr und das führt uns zurück zur Mediennutzung: Ich muss die nachwachsende Generation doch erst einmal dazu befähigen, diesen geteilten Horizont herzustellen. Ich sage gar nicht, dass alles im Netz schlecht ist. Aber um zu entscheiden, was davon gut und was davon schlecht ist, dafür brauche ich erstmal eine Basis.

Was macht das ULIDE?

Georg Mein spricht bei der feierlichen Einweihung des ULIDE Gebäudes im März in Belval

Georg Mein bei der Einweihungsveranstaltung des ULIDE im März in Belval Foto: Editpress/Alain Rischard

Das ULIDE existiert offiziell seit dem 1. Januar 2025 und beschäftigt sich mit allen sozialen, ethischen und rechtlichen Implikationen, die Digitalisierung und KI mit sich bringen. Das reicht von Fragen zur nationalen Umsetzung des europäischen AI-Act und den Konsequenzen von KI im Bildungssystem bis hin zu Untersuchungen über massive Desinformationskampagnen und Manipulationsversuche in Krisenregionen. Am ULIDE arbeiten Forscher aus unterschiedlichen Disziplinen, Rechts- und Computerwissenschaftler, aber auch Sozial- und Medienwissenschaftler. Dieser multidisziplinäre Ansatz sei wichtig, sagt ULIDE-Direktor Mein, weil die untersuchten Phänomene mittlerweile zu komplex seien, um sie aus einer Disziplin heraus zu behandeln. Ziel des ULIDE ist es, nicht nur im universitären Kontext Forschungsliteratur zu produzieren, sondern die Ergebnisse der Forschung so zu übersetzen, dass sie für Politik und Entscheidungsträger anwendbar werden. Das ULIDE begleitet deshalb auch konkrete Projekte von Ministerien und entwickelt Strategiepapiere. Für die Initiative Bee Secure haben sich Forscher des ULIDE beispielsweise mit den Herausforderungen beschäftigt, mit denen sich Kinder und Jugendliche durch KI und Social Media konfrontiert sehen.

4 Kommentare
Yves ALTWIES 31.03.202619:53 Uhr

Ein wirklich guter Betrag.

Unsere Politik hatte doch schon unter GAMBIA lauthals die "KI Revolution" als vielversprechendes neues "Standbein" fuer Luxemburg propagiert, bis heute ohne signifikantes Resultat wie es mir scheint ? Bleibt zu hoffen dass der Wunsch nicht Vater des Gedankens war.

Alvin Sold 31.03.202611:05 Uhr

Hochinteressant! Pflichtlektüre, nicht nur für Journalisten!

Guy Mathey 31.03.202610:34 Uhr

Überaus interessantes und aufschlussreiches Interview zu einem topaktuellen Thema. Die Positionen von Prof. Georg Mein klingen logisch, kann ich absolut teilen und möchte allen Politiker*innen. wärmstens empfehlen, sich intensiv mit der Thematik auseinanderzusetzen. Der richtige Umgang mit KI ist in der Tat existenziell für das Überleben unserer Demokratie, bei manchen Politiker*innen scheinen aktuell dbzgl noch erhebliche Wissenslücken zu bestehen. Aber nicht bloss die Politik ist betroffen, wir alle sehen uns irgendwo mit KI und deren Auswirkungen konfrontiert und sollten uns in unserem eigenen Interesse dbzgl weiterbilden.

Graucho 31.03.202608:51 Uhr

Prof.M.Spitzer stellt klar und für jeden verständlich( auch für Herrn Frieden),dass die "Digitale Demenz" im unverantwortlichen Umgang mit Smartphone & Co nur eine Frage der Zeit ist. Vor allem Jugendliche,die noch "saubere" Gehirne haben sind gefährdet. Meinungen bilden zu können dazu braucht es eine Basis an Wissen.Und das kriegt man nicht durch "Müll" von TikTok &Co. Die Erfolge von Hetzparteien wie ADR oder AfD usw. kommen zum Teil durch das Medium Internet. Man stelle sich vor wir ändern das Wahlalter auf 16 Jahre und lassen die so "behandelten" Gehirne an die Wahlurnen. Es sind doch gerade die jungen Menschen die uns aus der Misere retten sollen.Dann sollten wir sie auch auf den richtigen Weg schicken.

Das könnte Sie auch interessieren

KI-Forscher im Interview

„ChatGPT verführt uns zu unkritischem Denken“

Freihandel

EU und Mercosur zwischen Angst und Hoffnung