ForumDas Unbehagen im Algorithmus

Forum / Das Unbehagen im Algorithmus
 Foto: Andre M. Chang/ZUMA Press Wire/dpa

Jetzt weiterlesen! !

Für 0,59 € können Sie diesen Artikel erwerben.

Sie sind bereits Kunde?

In einer neuen Klage, die in den Vereinigten Staaten gegen Meta angestrengt wurde, argumentieren 41 Bundesstaaten und der District of Columbia, dass zwei der Social-Media-Produkte des Unternehmens – Instagram und Facebook – nicht nur abhängig machen, sondern zudem dem Kindeswohl schaden. Meta wird vorgeworfen, ein „Modell einzusetzen, das junge Nutzerinnen und Nutzer ausbeutet, um Gewinne zu erzielen“, unter anderem indem schädliche Inhalte gezeigt werden, die sie an ihre Bildschirme fesseln.

Einer aktuellen Umfrage zufolge verbringen 17-Jährige in den USA 5,8 Stunden pro Tag in den sozialen Medien. Wie ist es dazu gekommen? Die Antwort in einem Wort lautet: „Engagement“ – also alle Aktionen und Interaktionen, die ein User auf einer Webseite oder innerhalb einer App ausführt.

Durch den Einsatz von Algorithmen zur Maximierung des „User Engagement“ maximiert Big Tech die „Shareholder Value“, wobei kurzfristige Gewinne oft Vorrang vor längerfristigen Geschäftszielen haben, von der Gesundheit der Gesellschaft ganz zu schweigen. Wie der Datenwissenschaftler Greg Linden es ausdrückt, fördern Algorithmen, die auf „schlechten Metriken“ basieren, „schlechte Anreize“ und geben „schlechten Akteuren“ Handlungsspielraum.

Reißerisches Material, um Klicks zu erzeugen

Facebook begann als einfache Plattform, auf der sich Freunde und Bekannte online miteinander verbinden konnten, doch ihr Design entwickelte sich allmählich auf eine Weise weiter, die nicht den Bedürfnissen und Vorlieben der Nutzer gerecht werden, sondern sie auf der Plattform halten und von anderen fernhalten sollte. Bei der Verfolgung dieses Ziels missachtete das Unternehmen regelmäßig die ausdrücklichen Verbraucherpräferenzen in Bezug auf die Art der Inhalte, die die Nutzer sehen wollten, ihre Privatsphäre und den Austausch von Daten.

Wenn der kurzfristige Profit an erster Stelle steht, müssen Nutzer zu „Klicks“ bewogen werden, obwohl bei diesem Ansatz in der Regel minderwertiges, reißerisches Material bevorzugt wird, anstatt Akteure aus einem breiteren Ökosystem an Inhaltserstellern, Nutzern und Werbetreibenden angemessen zu beteiligen. Wir nennen diese Gewinne „algorithmische Aufmerksamkeitsrenten“, weil sie durch passives Eigentum (wie bei einem Vermieter) und nicht durch unternehmerische Produktion zur Befriedigung der Verbraucherbedürfnisse erzielt werden.

Um die Renten in der Wirtschaft von heute erfassen zu können, muss man verstehen, wie dominante Plattformen Kapital aus ihrer algorithmischen Kontrolle über die Nutzer schlagen. Wenn ein Algorithmus die Qualität der von ihm beworbenen Inhalte verschlechtert, nutzt er das Vertrauen der Nutzer und die beherrschende Stellung aus, die durch Netzwerkeffekte verstärkt wird. Deshalb können Facebook, Twitter und Instagram damit durchkommen, ihre Feeds mit Werbung und „empfohlenen“, süchtig machenden Inhalten vollzustopfen. Der Tech-Autor Cory Doctorow hat die nachlassende Qualität der Plattformen treffend als „enshittification aus dem Lauf eines Algorithmus“ bezeichnet (der wiederum auf illegale Praktiken der Datenerfassung und -weitergabe gestützt sein kann).

Bei der Klage gegen Meta geht es letztlich um die algorithmischen Praktiken des Konzerns, die mit Bedacht so konstruiert werden, dass sie das „User Engagement“ maximieren, also die Nutzer länger auf der Plattform halten und zu mehr Kommentaren, Likes und Reposts bewegen. Eine gute Möglichkeit, dafür zu sorgen, besteht oft darin, schädliche Inhalte am Rande der Illegalität zu zeigen und die Zeit auf der Plattform in eine zwanghafte Aktivität zu verwandeln, mit Funktionen wie „endlosem Scrollen“ und pausenlosen Benachrichtigungen und Meldungen (viele der gleichen Methoden werden mit großem Erfolg von der Glücksspielindustrie eingesetzt).

Nun, da Fortschritte in der Künstlichen Intelligenz die Empfehlungen der Algorithmen noch zielgenauer sein lassen, die damit noch süchtiger machend sind als zuvor, besteht eine dringende Notwendigkeit, neue Governance-Strukturen zu entwickeln, die sich am „Gemeinwohl“ orientieren (und nicht an einer eng gefassten Vorstellung von „Shareholder Value“), und an symbiotischen Partnerschaften zwischen Unternehmen, Regierung und Zivilgesellschaft. Glücklicherweise liegt es durchaus in der Macht der politischen Entscheidungsträger, diese Märkte zum Besseren zu gestalten.

Fünf Vorschläge

Erstens sollten sich politische Entscheidungsträger nicht allein auf das Wettbewerbs- und Kartellrecht verlassen, sondern auch technologische Instrumente einsetzen, um sicherzustellen, dass Plattformen Nutzer und Entwickler nicht auf unfaire Weise im eigenen System halten können. Eine Möglichkeit, wettbewerbsfeindliche geschlossene Plattformen – sogenannte „Walled Gardens“ – zu verhindern, besteht darin, die Übertragbarkeit von Daten und die Interoperabilität zwischen digitalen Diensten verpflichtend zu machen, damit Nutzer nahtlos zwischen Plattformen wechseln können, je nachdem, wo ihre Bedürfnisse und Präferenzen am besten erfüllt werden.

Zweitens ist eine Corporate-Governance-Reform unerlässlich, da die Maximierung der „Shareholder Value“ die Plattformen überhaupt erst dazu gebracht hat, ihre Nutzer algorithmisch auszubeuten. Angesichts der hinlänglich bekannten gesellschaftlichen Kosten, die mit diesem Geschäftsmodell verbunden sind – die Optimierung zugunsten von Klicks bedeutet oft mehr betrügerische Aktivitäten, Fehlinformationen und politisch polarisierendes Material – ist eine Reform der Algorithmen Voraussetzung für eine Governance-Reform.

Ein erster Schritt zur Schaffung einer gesünderen Grundlage besteht darin, von den Plattformen zu verlangen, dass sie (in den jährlichen 10-K-Berichten, die bei der US-Börsenaufsichtsbehörde eingereicht werden) offenlegen, worauf ihre Algorithmen optimiert und wie ihre Nutzer monetarisiert werden. In einer Welt, in der Tech-Führungskräfte jedes Jahr in Davos einfliegen, um über den „Purpose“ genannten tieferen Sinn zu sprechen, wird eine ordnungsgemäße Offenlegung sie unter Druck setzen, zu tun, was sie sagen, und politischen Entscheidungsträgern, Regulierungsbehörden und Investoren helfen, zwischen verdienten Gewinnen und unverdienten Renten zu unterscheiden.

Drittens sollte Nutzern mehr Einfluss auf die algorithmische Priorisierung der ihnen angezeigten Informationen eingeräumt werden. Andernfalls wird der Schaden, der durch das Ignorieren der Nutzerpräferenzen entsteht, weiter zunehmen, da die Algorithmen ihre eigenen Rückkopplungsschleifen schaffen, indem sie Nutzern manipulative Clickbaits aufdrängen und dann fälschlicherweise ableiten, dass diese bevorzugt werden.

Viertens sollte der Branchenstandard, „A/B-Tests“ durchzuführen, einer umfassenderen Bewertung der langfristigen Auswirkungen weichen. Eine fehlerhafte Datenwissenschaft führt zu kurzfristig orientierten Algorithmen. A/B-Tests können beispielsweise zeigen, dass sich die Anzeige von mehr Werbung in einem Feed kurzfristig positiv auf den Gewinn auswirkt, ohne die Nutzerbindung zu stark zu beeinträchtigen. Die Auswirkungen auf die Gewinnung neuer Nutzer werden dabei allerdings ignoriert, ganz zu schweigen von den meisten anderen potenziell schädlichen langfristigen Auswirkungen.

Gute Datenwissenschaft zeigt, dass die Optimierung von Empfehlungssystemen für langfristige, verzögerte Belohnungen (wie Kundenzufriedenheit, Kundenbindung und Gewinnung neuer Nutzer) der beste Weg für ein Unternehmen ist, langfristiges Wachstum und Rentabilität zu fördern – ausgehend von der Annahme, dass es aufhören kann, sich in erster Linie auf den nächsten Quartalsbericht zu konzentrieren. Im Jahr 2020 stellte ein Team von Meta fest, dass weniger aufdringliche Benachrichtigungen sowohl für die App-Nutzung als auch für die Nutzerzufriedenheit über einen längeren Zeitraum (ein Jahr) besser sind. Die langfristigen Auswirkungen unterschieden sich deutlich von den kurzfristigen Effekten.

Fünftens sollte öffentliche KI eingesetzt werden, um die Qualität algorithmischer Ergebnisse, insbesondere von Werbung, zu beurteilen. Angesichts der beträchtlichen Schäden, die durch Plattformen entstehen, die den Standard für akzeptable Werbung senken, wird die britische Werbeaufsicht nun KI-Tools einsetzen, um Werbung eingehend zu prüfen und Anzeigen zu identifizieren, in denen „fragwürdige Behauptungen“ aufgestellt werden. Andere Behörden sollten diesem Beispiel folgen. Ebenso wichtig ist, dass KI-Gutachter zum Kennzeichen der Offenheit von Plattformen gegenüber externen Prüfungen der algorithmischen Ergebnisse werden sollten.

Zukunft mit neuen KI-Produkten

Die Schaffung eines digitalen Umfelds, das die Wertschöpfung durch Innovation belohnt und die Wertabschöpfung durch Renten (insbesondere in digitalen Kernmärkten) bestraft, ist die grundlegende wirtschaftliche Herausforderung unserer Zeit. Um die Gesundheit der Nutzer von Big Tech und des gesamten Ökosystems zu schützen, muss sichergestellt werden, dass Algorithmen nicht den unmittelbaren Gewinninteressen der Aktionäre verpflichtet sind. Wenn es Unternehmensführern mit der „Stakeholder Value“ ernst ist, sollten sie die Notwendigkeit akzeptieren, Wert auf grundlegend andere Weise zu schaffen – gestützt auf die fünf oben genannten Grundsätze.

Der bevorstehende Prozess von Meta kann die Fehler der Vergangenheit nicht ungeschehen machen. Doch während wir uns auf die nächste Generation von KI-Produkten vorbereiten, müssen wir eine angemessene Aufsicht über Algorithmen einrichten. KI-gestützte Algorithmen werden nicht nur beeinflussen, was wir konsumieren, sondern auch, wie wir produzieren und kreieren; nicht nur, was wir auswählen, sondern auch, was wir denken. Dabei dürfen wir uns keinen Fehler erlauben.


Mariana Mazzucato, Gründungsdirektorin des UCL Institute for Innovation and Public Purpose, ist Vorsitzende des Council on the Economics of Health for All der Weltgesundheitsorganisation. Ilan Strauss ist wissenschaftlicher Mitarbeiter am UCL Institute for Innovation and Public Purpose.

Von Sandra Pontow aus dem Englischen übersetzt.

Copyright: Project Syndicate, 2024

www.project-syndicate.org

rc
5. März 2024 - 9.51

Diese verblödete Gesellschaft klickt doch schon lange nicht mehr richtig!???

luxmann
4. März 2024 - 8.31

Das sogenannte click baiting...also der einsatz von reisserischem material und sogar oft nur reisserischen ueberschriften ueber dann relativ inhaltslosen artikeln...ist allerdings nicht nur eine spezialitaet von meta oder fb ,sondern wird heute von einem grossen teil der presse im internet benutzt...und wurde auch schon vorher in der gedruckten presse genutzt um am kiosk den leser einzufangen.