Deutschland
KI-Videos im Netz: Wenn wir unseren eigenen Augen nicht mehr trauen können
Die Qualität von Videos, die mit Künstlicher Intelligenz (KI) erstellt werden, wird immer besser. Damit steigt die Gefahr, dass Falschinformationen in Videoform verbreitet werden. Was passiert, wenn wir unseren Augen nicht mehr trauen können und was die Politik plant.
„AI“ steht für Artificial Intelligence (Künstliche Intelligenz): Sie ist die größte Herausforderung für offene und freie Gesellschaften Foto: dpa/Soeren Stache
KI-Videos im Internet dienen zumeist belangloser Unterhaltung: sprechendes Gemüse, wilde Tiere, die sich wie Menschen verhalten, oder Babys auf Laufstegen – die sozialen Medien werden davon überflutet. Sie sind leicht als Fakes zu erkennen. Doch das ist nicht bei allen Inhalten so. Die Imitation wird immer besser. Damit sind die Zeiten unumstößlicher Verlässlichkeit von Videos vorbei – das hat nicht zuletzt der Vorfall vor wenigen Wochen im ZDF gezeigt.
Im „Heute-Journal“ des Senders wurde ein Beitrag mit dem Titel „Kinder und die Angst vor ICE“ mit KI-Videos bebildert, ohne diese als solche zu kennzeichnen. Es wurde also Material veröffentlicht, das ein Ereignis zeigt, das so nicht stattgefunden hat. Seitdem kämpft das ZDF mit der Kontroverse, die auf den Beitrag, aber auch auf die Reaktion des Senders folgte. Für alternative Nachrichtenportale wie „Nius“ ist es ein gefundenes Fressen, weil sie damit das Narrativ der manipulativen öffentlich-rechtlichen Medien weiter füttern können.
Zweifellos ist dem ZDF ein schwerwiegender Fehler unterlaufen und auch im Umgang damit hat sich der Sender nicht mit Ruhm bekleckert. Es ergibt sich aber auch die Frage, welchen Einfluss KI-Bilder über diesen Vorfall hinaus auf den politischen Diskurs haben. Schließlich werden unzählige dieser Videos in den sozialen Medien verbreitet, technisch gesehen kann jeder Nutzer ein solches Video erstellen.
Doch es werden eben nicht nur belanglose Inhalte generiert, sondern auch gezielt Falschinformationen verbreitet. Extremistische Gruppen fälschen Inhalte im Internet mit KI, um ihre Ansichten mit falschen Fakten zu belegen. Und spätestens seit der US-Präsidentschaftswahl 2016 ist klar, dass auch demokratiefeindliche Staaten wie Russland die sozialen Medien nutzen, um Gesellschaften (weiter) zu spalten.
Vertrauen in Politik und Medien erschüttern
Experten zufolge sind KI-Inhalte nicht nur ein Problem, wenn Nutzerinnen darauf hereinfallen. Die Unsicherheit, dass letztendlich alles eine Lüge sein könnte, hat ihre eigene Wirkung, wie der Experte Hany Farid dem Spiegel sagte. Er ist Professor für Computerwissenschaft und Elektrotechnik an der Universität in Berkeley, Kalifornien. Diese These wurde kürzlich von einem Video unterstützt, auf dem die Linken-Chefin Heidi Reichinnek zu sehen ist, wie sie aus einem Audi V8 ausstieg. Während rechte Akteure, wie AfD-Politikerin Beatrix von Storch, das Video als Skandal inszenierten, mutmaßten viele Nutzer in den sozialen Medien, dass das Video ein Fake war – und führten als Beweis selbstgenerierte KI-Videos an, auf denen dieselbe Szene zu sehen war, nur dass Reichinnek vor einem Trabant statt dem Audi stand. Schließlich stellte eine Sprecherin der Linksfraktion klar: Das Video ist echt, jedoch war das Auto ein Fahrzeug des Bundestages und nicht Reichinneks Privatfahrzeug.
Regulierung, die meiner Ansicht nach dringend nötig ist, wird es wahrscheinlich nie vollständig schaffen, gegen all die negativen Entwicklungen in diesen offenen digitalen Netzwerken anzukommen
Martin Emmer
Politik- und Sozialwissenschaftler an der FU Berlin
Diese Beispiele zeigen, wie KI das Vertrauen in Politik und Medien erschüttern kann. Damit der Umgang mit KI-generierten Inhalten transparenter wird, hat die EU eine KI-Verordnung beschlossen – den AI Act. Demnach müssen alle Inhalte, die maßgeblich von KI verändert oder erzeugt wurden, auch als solche gekennzeichnet werden. Das gilt für Anbieter und Nutzer von KI. Verbindlich wird diese Richtlinie jedoch erst ab dem 2. August dieses Jahres. Danach können Verstöße mit teils hohen Bußgeldern geahndet werden, wie ein Sprecher des Ministeriums für Digitales dem Tageblatt mitteilte. Diese transparenten Kennzeichnungspflichten seien „ein zentraler Baustein“, um das Vertrauen in digitale Inhalte zu stärken und täuschende KI-Inhalte einzudämmen. Reicht das aus, um Falschinformationen einzudämmen?
Medienkompetenz ausweiten
„Regulierung, die meiner Ansicht nach dringend nötig ist, wird es wahrscheinlich nie vollständig schaffen, gegen all die negativen Entwicklungen in diesen offenen digitalen Netzwerken anzukommen“, sagte Politik- und Sozialwissenschaftler Martin Emmer im Gespräch mit dem Tageblatt. Emmer lehrt am Institut für Publizistik- und Kommunikationswissenschaft an der Freien Universität Berlin. Regulierungen könnten also nicht die Antwort auf alle Probleme sein. Schließlich gibt es da noch die Meinungsfreiheit. „Man kann nicht grundsätzlich verbieten, dass Menschen künstliche Inhalte erstellen und sie verbreiten, solange keine Rechte verletzt werden“, so Emmer. „Ein ganz zentraler Wellenbrecher muss sein, dass die Menschen sich nicht so einfach manipulieren lassen.“
Schon lange wird in Gesellschaft und Politik über Medienkompetenzen diskutiert, meist im Kontext von Schulunterricht. Für den Wissenschaftler reicht das jedoch nicht aus. „Diese Netzwerke haben Bürgerinnen und Bürgern ganz neue Möglichkeiten gegeben“, sagt Emmer. Sie hätten nun mehr Macht und könnten damit auch mehr Schaden anrichten. Es gehe nicht nur um das Wissen, wie man mit Medien umgeht, sondern darum, sich der eigenen Rolle und Verantwortung innerhalb der Gesellschaft bewusst zu sein. Dazu gehört auch, dass KI-Videos zwar oberflächlich immer besser werden, inhaltlich können sie sich aber immer nur auf bereits bestehende Inhalte beziehen. Es sei noch immer eine „sehr, sehr künstliche Realität“, die von Künstlicher Intelligenz erzeugt werde.
„Auch wenn die Bilder auf der Oberfläche sehr realistisch aussehen, muss man sich immer klar machen, dass es nichts ist im Vergleich zu den Lebenserfahrungen, die Menschen jeden Tag machen“, sagt der Experte. Zumindest jetzt noch nicht.