mabb oben  rechts bleistift
mabb unten  links zettel

Die Blackbox durchleuchten

Welche Empfehlungen zeigt YouTube seinen Nutzenden?

YouTube ist heute die meistgenutzte Onlineplattform für unterhaltende und informierende Videos. Insbesondere junge Nutzende informieren sich dort (auch) zu politischen und gesellschaftlichen Themen.[1] Neben der Suchfunktion bietet YouTube auf den Einzelnen zugeschnittene Empfehlungen an. Laut dem leitenden Produktmanager von YouTube Neal Mohan sind diese für einen Großteil der angezeigten Videos verantwortlich.[2] Algorithmische Empfehlungen bestimmen so, welche Videos die Jugendlichen anschauen.

Was für Inhalte werden algorithmisch empfohlen und wie viel Vielfalt wird dabei sichtbar?

Die Antworten auf diese Fragen helfen uns zu verstehen, welche Rolle YouTube bei der politischen Meinungsbildung der Menschen spielt. Insbesondere in schnelllebigen Krisenzeiten wie diesen können online verbreitete Informationen – und Desinformationen – öffentliche Debatten und private Meinungen merkbar beeinflussen.

Fehlende Transparenz der YouTube-Algorithmen ist zu einer zentralen Herausforderung für Wissenschaft und Regulierung geworden, die viele inhaltliche und methodische Probleme aufwirft. Denn die Algorithmen werten enorme Datenmengen aus, die individuelle Eigenschaften und Nutzungshistorie ebenso umfassen, wie Charakteristika von Videos und Kanälen. Das Ziel ist klar: Nutzer möglichst lange auf der Plattform halten. Der Weg dorthin aber nicht: Denn welches Gewicht einzelne Kriterien für das Zustandekommen der Empfehlungen haben, gilt als Geschäftsgeheimnis. Spielt die Werbefreundlichkeit von Videos eine Rolle? Werden vertrauenswürdige Informationsquellen bevorzugt empfohlen und nach welchen Kriterien werden diese bestimmt? Werden Videos empfohlen, die reißerisch und emotional sind und dadurch viele Nutzerreaktionen bekommen?

Was wissen wir eigentlich über YouTube?

Um diesen Fragen nachzugehen, lud das Media Policy Lab Expertinnen und Experten aus Wissenschaft und Praxis zu einem Workshop ein. Anja Zimmer, Direktorin der mabb, und Gergana Baeva (Media Policy Lab der mabb) diskutierten mit Guillaume Chaslot (AlgoTransparency.org), Mario Haim (Universität Leipzig), Juhi Kulsrehsta (Gesis - Leibniz-Institut für Sozialwissenschaften), Anna Sophie Kümpel (LMU München) und Sarah Kübler (HitchOn GmbH) über die Bedeutung und das Zustandekommen von Empfehlungen, über Forschungsansätze und verfügbare Forschungsdaten.

Foto: Lena Krampitz

Schnell wurde klar, wie wenig darüber bekannt ist, wie sich Menschen auf YouTube informieren. Nach Ansicht der Experten spielt die Struktur der hochgeladenen Angebote eine große Rolle für die algorithmischen Empfehlungen: Denn wenn kaum Videos zu einer Suchanfrage verfügbar sind, können keine passenden Empfehlungen generiert werden. Wenn verlässliche und qualitative Beiträge zu einem populären Stichwort rar sind, werden weniger gute Videos empfohlen. Und wenn Videos unattraktiv präsentiert werden, kann auch ein maschinelles Lernsystem nicht deren versteckte Qualität erkennen und hervorheben.

Die Expertinnen und Experten waren sich einig, dass es für die Regulierung wichtig ist, zu verstehen, welche Angebote informierend genutzt werden und wie die Nutzer sie bewerten. Denn nur so kann die Rolle von Empfehlungen für die Meinungsbildung der Einzelnen erforscht werden. Nicht vergessen werden, sollte aus ihrer Sicht auch, dass YouTube von jungen Nutzenden vor allem auf mobilen Geräten genutzt wird. Daraus ergeben sich praktische und methodische Probleme, denn die Messung der mobilen Daten ist aufwendig und die Datenqualität fraglich.

Insbesondere die Personalisierung der Empfehlungen stellt ein Forschungsproblem dar. Da die Algorithmen auf eine sehr große Menge an Informationen über die Nutzenden zugreifen und wir nicht wissen, welche davon besonders wichtig sind, ist es kaum möglich, alle denkbaren Kombinationen zu untersuchen.

Mehr Transparenz durch neue Studie

Diese Probleme erfordern verschiedene methodische Ansätze, die aufeinander abgestimmt sein müssen und zusammen die Blackbox des Empfehlungsalgorithmus ein Stück transparenter machen können. Wie kann das funktionieren? Neue Einblicke soll eine Studie über den YouTube-Empfehlungsalgorithmus bringen. Dabei soll untersucht werden, welche Videos zu politischen und gesellschaftlich relevanten Themen explizit empfohlen werden, welche Autoren für diese Inhalte zuständig sind und welchen Beitrag diese Empfehlungen für die Meinungsbildung der Nutzenden spielen.

[1] 22 % der 14- bis 29-Jährigen nutzten YouTube gestern, um sich zum politischen und gesellschaftlichen Zeitgeschehen zu informieren (Mediengewichtungsstudie 2019 I).

[2] https://www.cnet.com/news/youtube-ces-2018-neal-mohan/

zurück zur Übersicht