mabb oben  rechts bleistift
mabb unten  links zettel

Gastbeitrag von Guillaume Chaslot

Im vergangenen Jahr nahm YouTube mehr als 30 Änderungen an seinem Algorithmus vor, um der Verbreitung von Desinformation entgegenzuwirken. Doch trotz der Anpassungen wurden irreführende Videos millionenfach aufgerufen. Wieso erreichten Videos mit eindeutig falschen Inhalten so viele Menschen? Und welche Rolle spielten die Algorithmen der Plattform dabei?

Viele Nutzerinnen und Nutzer informieren sich zunehmend über YouTube. Zahlreiche Akteure nutzten diese Suche nach informierenden Inhalten aus, um mit irreführenden Videos millionenfach Aufrufe zu generieren. Auch Desinformation mit Bezug zur Covid-19-Pandemie wird vielfach verbreitet: Der Virus werde durch 5G begünstigt, wurde von der Regierung geschaffen oder könne mit Karottensaft oder einem kalten Bad geheilt werden. Wer setzt diese Falschnachrichten in die Welt? Und noch wichtiger, wer ist für ihre Verbreitung verantwortlich? Diesen beiden Fragen will ich im Folgenden anhand konkreter Beispiele nachgehen.

Wie verbreitet sich Desinformation?

Mika Denissot - französischer Staatsbürger, wohnhaft in Singapur -  nahm ein Video auf, in dem er behauptete, es gebe „Beweise“ dafür, dass das Virus von Menschen gemacht wurde. Dabei verwies er auf Informationen von der Clickbait-Website Natural News, die inzwischen auf Facebook gesperrt wurde. Sein Video wurde beinahe eine Million Mal aufgerufen, obwohl es recht einfach als Desinformation zu entlarven ist, beispielsweise weil ein „Patent“, das Mika Denissot als Beweismittel heranzieht, gar keinen Bezug zum aktuellen Coronavirus hat. Videos, die Mika Denissot’s Behauptungen als unwahr entlarven, erreichten jedoch nur einen Bruchteil der Aufrufe der ursprünglichen Desinformation. So erreichte beispielsweise die Berichtigung der YouTuberin Aude WTFake ein Zwanzigstel der Aufrufe von Mika Denissot's Video. Und vermutlich erreichte sie dabei noch nicht einmal die Personen, die sich das Originalvideo angesehen hatten. Mika Denissot konnte mit diesem Video seine Abonnentenzahl vervierfachen. Später stellte er das Video auf „privat“ um, doch der Schaden war bereits angerichtet und kann nicht mehr rückgängig gemacht werden. YouTube zeigte denjenigen, die das Video gesehen habe, keine Richtigstellung an. Zudem wissen wir nicht, wie die Personen auf das Video aufmerksam wurden.

Die YouTuberin Aude WTFake entlarvt Desinformation über Covid-19

Erfolgreiche Verschwörungstheoretiker auf YouTube

Das Video „Plandemic“ des US-Amerikaners Mikki Willis behauptet, dass das Virus in einem US-amerikanischen Labor erzeugt wurde, dass das Tragen einer Maske zu einer erneuten Infektion führen würde und dass die amerikanische Ärztekammer damit drohte, Mitgliedern die Zulassung zu entziehen, die Cholorquin als Behandlungsmethode vorschlugen. Dieses Video erreichte fast 8 Millionen Menschen, bevor es von YouTube aufgrund eines Verstoßes gegen die eigenen Richtlinien entfernt wurde. Die Verbreitung des Videos in den sozialen Medien war jedoch so groß, dass die New York Times dem einer Analyse widmete.

David Icke, ein anderer bekannter Verschwörungstheoretiker, war ebenfalls sehr aktiv auf YouTube. Auf seinem 2006 eröffneten Kanal verzeichnete er mehr als 100 Millionen Aufrufe. Er hat einige der ausgefallensten Verschwörungstheorien aufgestellt – von Außerirdischen und Reptilien, die Menschen infiltrieren, bis hin zur Fälschung des Mondes und der Ringe des Saturns. Diese Videos wurden millionenfach geklickt, zum Teil dank des Empfehlungsalgorithmus von YouTube. Als ich die Empfehlungen von YouTube für das Projekt Algotransparency.org analysierte, konnte ich beobachten, wie seine Videos von mehr als 794 anderen Kanälen empfohlen wurden, darunter auch Fox News und MSNBC. Für David Icke war Covid-19 eine Chance. Er stellte eine Verbindung zwischen Covid-19 und dem 5G-Netz her und konnte so einen Zuwachs von beinahe 30 Prozent mehr Abonnenten in zwei Monaten verzeichnen (von 700.000 auf 900.000). Seine Verschwörungsvideos über den Coronavirus erhielten mehr als 10 Millionen Aufrufe allein auf YouTube und mehr als 30 Millionen Aufrufe insgesamt in sozialen Medien. YouTube und Facebook sperrten daraufhin seine Kanäle und Seiten. Dank solcher einflussreichen Verschwörungstheorien glaubten viele an einen Zusammenhang zwischen der Covid-19-Verbreitung und dem Aufbau des 5G-Netzes. Daraufhin wurden 5G-Funkmasten in Großbritannien und Frankreich zerstört.

Wieso erreicht Desinformation so viele Nutzende?

Mehr als 70 Prozent der Videoaufrufe auf YouTube kommen über Empfehlungen zustande. Wären die hier erwähnten Videos mit ihrer gemeinsamen Reichweite von ca. 10 Millionen Aufrufen so in Empfehlungen sichtbar, wie ein durchschnittliches YouTube-Video, würde das bedeuten, dass sie um die 50 Millionen Mal von den YouTube-Algorithmen empfohlen wurden. Denkt man an alle desinformierenden Videos auf YouTube, wären diese Hunderte von Millionen Male in der Seitenleiste aufgetaucht.

Letztes Jahr nahm YouTube mehr als 30 Änderungen an seinen Empfehlungsalgorithmen vor, um die Empfehlungen für „schädliche“ Inhalte zu reduzieren. Laut YouTube verringerte sich dadurch die Zahl der empfohlenen desinformierenden Inhalte um 70 Prozent. In einer Studie, die wir zusammen mit der UC Berkley durchgeführt haben und die von der New York Times zitiert wurde, konnten wir bestätigen, dass irreführende Inhalte für nicht angemeldete Nutzerinnen und Nutzer in diesem Zeitraum ebenfalls um zwei Drittel weniger in den Empfehlungen sichtbar waren. Mittlerweile werden solche Videos also weniger oft per Empfehlungen verbreitet als früher. Da jedoch Empfehlungen so wichtig für die Nutzung von Videos sind, tragen sie selbst in dieser reduzierteren Form immer noch in hohem Maße zur Verbreitung von Desinformation bei.

Desinformation wird über Empfehlungen verbreitet laut der Studie von Chaslot und Kollegen.

Plattformstruktur begünstigt die Unwahrheit

Trotz größtenteils gleichen Nutzenden unterscheidet sich der Umfang der Desinformation u von Plattform zu Plattform. Wieso ist das so? Die aktuelle Struktur von YouTube macht es leichter, Aufrufe und somit Aufmerksamkeit mit der Verbreitung von Falschinformationen zu erreichen, als dies mit seriösen Nachrichten oder mit der Richtigstellung von Desinformation der Fall ist. Die oben angeführten Beispiele bestätigen dies. Es gibt jedoch eine Plattform, die sich relativ robust gegenüber Falschinformationen zu Covid-19 gezeigt hat: Wikipedia. Aufgrund der Struktur von Wikipedia ist es einfacher, falsche Informationen zu entfernen als sie zu erstellen: Ein Nutzer braucht nämlich nur auf eine Schaltfläche zu klicken, um eine (irreführende) Bearbeitung rückgängig zu machen. Das zeigt: Die Verbreitung von Desinformation ist nicht nur auf das Verhalten der Nutzenden zurückzuführen, sondern auch auf die Struktur der Plattform selbst.

Die Reaktionen der Plattformen: Mehr Faktenprüfung und geringe Sichtbarkeit für Desinformation

Jahrelang haben die Plattformen die Verbreitung von Falschinformation ausschließlich als ein Problem der Moderation von Inhalten betrachtet: Ein Inhalt war entweder erlaubt oder verboten. Dabei geht es jedoch nicht nur um die Frage, was durch nachträgliche Moderation geändert werden kann, sondern ganz entscheidend auch um die Technologie selbst, die Inhalte sichtbar macht. Ende 2018 stellte Marc Zuckerberg in einem Blogbeitrag das Konzept des „Borderline Content“ vor. Damit sind Inhalte gemeint, die zwar nah an einer Verletzung der Plattformrichtlinien sind, ohne jedoch tatsächlich gegen sie zu verstoßen. Zuckerberg erläuterte, dass diese Inhalte oft zu mehr Interaktionen mit den Nutzenden führen und daher von den Algorithmen stärker hervorgehoben werden. Es ist kein Geheimnis, dass das soziale Netzwerk darauf ausgelegt ist, die Interaktionen mit seinen Nutzenden zu steigern. Dies führte zu einer paradoxen Situation: Der Inhalt, der den Werten von Facebook am stärksten widersprach, wurde am meisten gefördert. Zuckerberg kündigte daher Maßnahmen an, um die Verbreitung von „Borderline Content“ einzudämmen.

Am 25. Januar 2020 kündigte YouTube an, Empfehlungen für irreführende Inhalte wie beispielsweise Wundermittel für Krankheiten oder die Flat-Earth-Verschwörungstheorie reduzieren zu wollen. Zwar werden diese Videos nicht von der Plattform entfernt, jedoch werden sie nicht mehr so stark wie zuvor durch Empfehlungen gefördert.

Am 29. Mai 2020 begann Twitter, Tweets von Donald Trump mit Faktencheck-Hinweisen zu versehen. So wurde ein Tweet von Trump mit der Warnung versehen, dass dieser gegen das Verbot von Gewaltdarstellung verstoße. Facebook  sieht sich dagegen nicht als „Schiedsrichter der Wahrheit“. Aber stimmt das noch, wenn der Algorithmus von Facebook darüber entscheidet, was sichtbar gemacht wird und was nicht. Wenn dieser nun aber nicht danach differenziert, was wahr oder unwahr ist, wieso sollte er nicht auch Unwahres fördern?

Die Notwendigkeit von Algorithmen-Transparenz

Während der Covid-19-Pandemie ging YouTube so entschlossen wie noch nie gegen Desinformation vor. Zuerst wurden Inhalte verboten, die gegen die Richtlinien der Weltgesundheitsorganisation verstoßen. Im Anschluss verringerten Anpassungen der Empfehlungsalgorithmen die Verbreitung von irreführenden Inhalten. Doch trotz dieser Anstrengungen wurden Falschinformationen zu Covid-19 millionenfach auf YouTube angeschaut. Solche Videos könnten Hunderte von Millionen Male von Algorithmen empfohlen worden sein.

In Zeiten, in denen 5G-Funkmasten zerstört werden, in denen viele Menschen sich weigern, eine Mund-Nasen-Maske zu tragen, und den Ratschlägen der Gesundheitsbehörden misstrauen, ist es umso wichtiger, nach den Auswirkungen von Algorithmen auf unsere Demokratie zu fragen.

Wie oft wurden die Videos von David Icke empfohlen? Welche Videos zu Covid-19 wurden rechnerisch am häufigsten empfohlen? Das sind Fragen, die wir beantworten müssen, um zu verstehen, wie Algorithmen unsere Gesellschaft verändern.

Der französische Informatiker und Software-Ingenieur Guillaume Chaslot arbeitet auf den Gebieten der künstlichen Intelligenz und des maschinellen Lernens. Nach seiner Promotion an der Universität Maastricht arbeitete er für Microsoft und für Google, wo er an der Entwicklung der YouTube-Algorithmen beteiligt war. Später gründete er das Projekt AlgoTransparency.org, um zu zeigen, wie der Empfehlungsalgorithmus von YouTube die Sichtbarkeit wichtiger gesellschaftlicher Themen beeinflusst. Seine Kritik an YouTube wurde u.a. von The New York Times, The Guardian, The Washington Post und The Wall Street Journal aufgegriffen.

zurück zur Übersicht