Sonntag21. Dezember 2025

Demaart De Maart

Forum „Die Künstliche Intelligenz tickt anders“: Frank Hofmann über grundsätzliche Fragen zur KI

Forum  / „Die Künstliche Intelligenz tickt anders“: Frank Hofmann über grundsätzliche Fragen zur KI
Spot, ein Roboter mit hundeartigen Bewegungen – und eben kein Mensch Foto: dpa/Michael Reichel

Jetzt weiterlesen!

Für 0,99 € können Sie diesen Artikel erwerben:

Oder schließen Sie ein Abo ab:

ZU DEN ABOS

Sie sind bereits Kunde?

Die Spatzen pfeifen es inzwischen von den Dächern. Die so rasant vorangekommene (sogenannte) Künstliche Intelligenz (KI) tickt anders als der Mensch. Für die Lösung mancher Probleme sind KI-Systeme äußerst effektiv; sie kalkulieren mit Höchstgeschwindigkeit und mit Datenmengen, die kein Mensch verarbeiten kann. Bei anderen Problemen haben Menschen die Nase vorn; sie lernen manches viel schneller und auch ohne Big Data, während KI-Systeme bei einigen einfachen Fragen des gesunden Menschenverstandes krachend versagen. Jüngstes Beispiel: ChatGPT-4o empfahl, einen Kaktus zu umarmen. Diese Unterschiede haben natürlich einen Grund: die völlig verschiedenen Architekturen, die einen ganz unterschiedlichen Umgang mit Informationen und unterschiedliche Arten des Lernens mit sich bringen. Sie führen dazu, dass die KI-Systeme im Grunde nur „Spiegel des Menschlichen“ sind, wie Shannon Vallor in ihrem Buch „The AI Mirror“ schön dargelegt hat – und Spiegel mit ganz beachtlichen Verzerrungen!

Das könnte uns vielleicht zunächst beruhigen. Wir bleiben also überlegen – zumindest in manchen Bereichen. Unsere menschliche Intelligenz scheint mit den gegenwärtigen KI-Systemen, die auf Techniken wie Maschinenlernen und Large-Language-Modellen beruhen, nicht realisierbar. Nur was wir relativ schlecht können, können diese KI-Systeme besser.

Eine bloße Möglichkeit – und Möglichkeiten gibt es viele

Da springt aber sogleich die Reflexion auf die Bühne und protestiert. Moment! Die KI-Entwicklung war doch in den letzten Jahren atemberaubend schnell. Vielleicht könnte nun eine neue Idee, die zu einer neuen KI-Architektur führt, in ungefähr gleicher Geschwindigkeit zu einer verbesserten Generation von KI-Systemen führen, die in wenigen Jahren auch das beherrschen werden, was bisher nur wir Menschen sehr gut können. So sicher sollten wir uns also nicht fühlen!

Diese Metainduktion bezüglich künftiger KI-Herstellung scheint die „Beruhigungspille“ schnell abklingen zu lassen. Und wieder einmal stünden wir mit etwas da, was uns schon seit einiger Zeit verfolgt: die Angst, von den Maschinen in allen Hinsichten übertroffen zu werden. Sie gesellt sich zu den anderen Ängsten, die wir bereits haben. Die Angst, dass die Maschinen vieles effizienter machen können als Menschen, und die Angst, dass sie uns massenhaft manipulieren könnten.

Als Argument ist diese Metainduktion allerdings ein Fehlschluss. Dass wir vielleicht einmal eine Technologie erfinden werden, die allgemeine Künstliche Intelligenz realisieren kann, mag zugestanden sein. Das ist aber eine bloße Möglichkeit, und eine bloße Möglichkeit ist kein Grund zu glauben, dass es demnächst wahrscheinlich passieren wird. Möglichkeiten gibt es viele. Die Erde könnte durch einen großen Meteoriteneinschlag unbewohnbar gemacht werden, aber deshalb ist es nicht wahrscheinlich. Und dass ein Politiker sein Spezialwissen für Insidergeschäfte nutzen könnte, heißt nicht, dass er es wahrscheinlich tun wird. Dass etwas möglich ist, heißt noch lange nicht, dass es wahrscheinlich passieren wird. Es lässt noch völlig offen, wie wahrscheinlich das Eintreten ist. Selbst wenn also bisher sprunghafte Entwicklungen in Richtung Künstlicher Intelligenz stattgefunden haben, heißt das noch lange nicht, dass wir die echte KI – die mit gesundem Menschenverstand ausgestattete Künstliche allgemeine Intelligenz – wahrscheinlich bald erreichen werden. Bisher gibt es keinen Grund, das zu glauben. Wir könnten uns auch in einem lokalen Maximum befinden, aus dem wir wahrscheinlich nicht so schnell herauskommen können. Insbesondere wenn es um ethische Fragestellungen geht, ist die menschliche Fähigkeit, Tatsachen und moralische Prinzipien zusammenzudenken und in einem gegebenen Kontext mit neuen Elementen zu einem verantwortungsvollen Urteil heranzuziehen, unerreicht. Wir sind gut beraten, diesen Punkt einfach einmal festzuhalten und uns nicht durch die Fortschrittsversprechen der Techno-Firmen beirren zu lassen.

Eine technische Lösung und Stückwerk

Man könnte nun denken: Dann sollten wir uns besser darauf konzentrieren, alle KI-Systeme mit unseren Werten in Übereinstimmung zu bringen. Wir sollten daran arbeiten, die Ethik in die KI-Systeme „hineinzuprogrammieren“, um das sogenannte Alignment-Problem zu lösen. Transparente Architekturen – die „explainable“ sind – und Absicherungen verschiedenster Art sollten entwickelt werden, sodass es für uns Menschen leichter wird, diese Systeme zur Unterstützung humaner Werte einzusetzen.

Nun spricht nichts gegen eine solche pragmatische, technische Verbesserung von KI-Systemen. Es ist aber eben das, was es ist: eine technische Lösung und Stückwerk. Und wie gut das funktionieren wird, ist offen. Vielleicht sollten wir uns darauf also nicht verlassen. Wer hochkomplexe künstliche Systeme baut, die oberflächlich betrachtet wie autonome Akteure tätig sein können, aber völlig anders aufgebaut sind als Menschen, sollte nicht erwarten, dass diese sich gänzlich an die Welt der menschlichen Werte anpassen lassen. Vorsicht und Kontrolle sind da am besten.

Prof. Dr. Frank Hofmann ist Philosophie-Professor an der Universität Luxemburg. Seine Forschungsschwerpunkte liegen in der Erkenntnistheorie, Metaphysik und Ontologie, Wissenschaftsphilosophie, Theorie der Normativität und Philosophie der Subjektivität.
Prof. Dr. Frank Hofmann ist Philosophie-Professor an der Universität Luxemburg. Seine Forschungsschwerpunkte liegen in der Erkenntnistheorie, Metaphysik und Ontologie, Wissenschaftsphilosophie, Theorie der Normativität und Philosophie der Subjektivität. Foto: privat

Die andere, grundsätzliche Frage bleibt aber. Was, wenn wir eines Tages KI-Systeme schaffen, die selbst den Status von handelnden Subjekten haben und nicht nur oberflächlich betrachtet so aussehen? Grundsätzlich kann es im Moment nicht ausgeschlossen werden, dass wir das eines Tages „schaffen“ werden. Dann wären wir noch nicht in der Situation des Blade Runners im Film von Ridley Scott, da wir noch zwischen Menschen und Maschinen unterscheiden können. Aber wie sollten wir sie behandeln, diese Maschinen, die den Status von handelnden Akteuren haben? Darüber lohnt es sich nachzudenken, auch wenn es nicht unmittelbar bevorsteht. Da wir Menschen uns diese Frage stellen, ist es eine Frage, die die menschliche Moral betrifft, d.h. das gute menschliche Leben. Dann geht es darum, ob diese zukünftigen Systeme unserer menschlichen Lebensweise gegenüber respektvoll auftreten oder diese „mit Füßen treten“. Da es a priori keine Garantie gibt, dass solche zukünftigen Maschinenakteure immer zum Wohle der Menschen handeln, sind wir grundsätzlich nie sicher vor schädlichen Einflüssen und Aktionen – besonders wenn diese Maschinen über mächtige Fähigkeiten verfügen. Wie gesagt, die KI tickt eben anders. Um menschliches Wohl nicht unnötig zu gefährden, sollten wir also auf jeden Fall den Bau und Gebrauch von KI-System reglementieren. Sicherheit bringt das auch nicht; aber es dürfte das Beste sein, was wir tun können. Das Zuckerberg’sche Motto „Move fast and break things“ könnte sonst leicht zu einem „Move fast and break humans“ werden. Fortschritt sollte hier (wie auch sonst) als Fortschritt auf dem Gebiet des menschlichen Wohls verstanden werden.

Disclaimer: Die hier geäußerten Auffassungen sind ausschließlich diejenigen des Autors und repräsentieren nicht die Positionen der Universität Luxembourg.

canis-lupus
3. Oktober 2025 - 8.40

gud, mol eng Kéier Een, dee sëch mam "gudde Frëndchën" KI beschäftëgt..

also ëch perséinlëch trauen Deem nët, ëch hun do meng Bedenken op awer nët plötzlëch dë KI aus der Këscht sprengt..

wéi seng Methode sën a seng Capacitéit ass wësse mër nët..

kanns Dë wiirklëch dëm KI vertrauën?!

ëch mengen ët wär besser nët, Haut ass ët nach eng "Maschin" awer Muër vläicht nët méi, wann sëch seng Intelligenz verdoubelt an Hiën selbständëg reagéiërt..

BouM.. dann ass d'Welt rëm ee Fäiërball..

komesch, war dë KI da schons mol eng Kéier do!?