mabb oben  rechts bleistift
mabb unten  links zettel

mabb-Direktorin Dr. Anja Zimmer schlägt vor, Medienvielfalt neu zu denken

Beitrag von mabb-Direktorin Dr. Anja Zimmer. Erschienen in epd medien vom 28. Juli 2017.

Öffentlichkeit ändert sich in der digitalen Gesellschaft rasant: Das Web 2.0 war für viele Menschen Synonym für die dezentrale, offene und partizipative Kultur des Internets. Eine neue, möglicherweise demokratische Öffentlichkeit war die Hoffnung. Heute müssen wir uns stattdessen mit grundlegenden Fragen und Herausforderungen an die Gesellschaft, die Politik und die Regulierung auseinandersetzen. Zahlreiche Debatten beschäftigen sich mit der Frage, was wir gegen die Zunahme von "Hate Speech" tun können oder wie wir mit Fake News umgehen sollen. Kontrovers diskutiert wird zudem, wer eigentlich bestimmt oder bestimmen sollte, was Nutzerinnen und Nutzer im Internet zu sehen und zu hören bekommen, welche Informationsangebote ihnen gemacht werden.

Ein Begriff steht dabei mitten im Raum: Algorithmen. Und die Frage, welche Rolle sie im Zusammenhang der Meinungsbildung und Meinungsvielfalt einnehmen. Denn algorithmische Entscheidungssysteme übernehmen in unserem Alltag inzwischen unterschiedliche Funktionen: Von Mechanismen des Finanzmarkts und selbstfahrenden Autos bis hin zur Partnerwahl - wir leben zunehmend in einer automatisierten Öffentlichkeit, in der Algorithmen unsere Entscheidungen und eben unsere Meinung beeinflussen können.

Komplexe Datensammlungen

Wie genau Unternehmen wie Facebook, Twitter oder Google - sogenannte Informationsintermediäre - Algorithmen einsetzen, bleibt ihr Geschäftsgeheimnis. Und das ist auch in gewisser Weise verständlich, denn es ist ihr Kapital. Intermediäre sammeln persönliche Daten der Nutzerinnen und Nutzer, akkumulieren die Daten und analysieren sie auf Basis zugrundeliegender Algorithmen. Diese Algorithmen verbessern sich fortlaufend anhand der Datenströme. Außerdem entwickeln sie sich durch künstliche Intelligenz selbst weiter und können so eine Komplexität erreichen, die nach eigenen Aussagen selbst innerhalb der IT-Konzerne mitunter überrascht.

All das verändert unser Leben nicht nur auf einer individuellen Ebene, sondern auch im gesellschaftlichem Zusammenspiel, zum Beispiel wenn unser persönliches Handeln durch Algorithmen inspiriert, bewertet oder vorselektiert wird. Und wie so oft, stehen Medien und Mediennutzung im Fokus dieser Entwicklungen.

Zweifelsfrei entsteht durch das Angebot der Informationsintermediäre quantitativ mehr Vielfalt durch neue journalistische Angebote, durch User Generated Content und Informationsaustausch in eigenen Netzwerken. Und ohne algorithmische Entscheidungssysteme könnten wir die Flut an Informationen nicht bewältigen, wäre Vielfalt nicht denkbar. Informationsintermediäre beeinflussen aber auch, welche Themen wir wahrnehmen, welche Reichweite Informationen erhalten und welche Medien in unserem Kommunikationsmix noch vorkommen.

Das stellt neue Herausforderungen an die Vielfaltsicherung. Umso mehr, da die Unternehmen, die im Internet als Mittler zwischen Inhalteanbieter und Nutzer fungieren, in der Regel über eine beachtliche Marktmacht verfügen, die durch Netzwerk- und Lock-in-Effekte sowie den Zugriff auf enorme Datenmengen noch vergrößert wird.

Und auch, wenn die Intermediäre keine redaktionellen Entscheidungen treffen und eben nicht an die Stelle etablierter Medienhäuser treten, so sind sie längst keine neutralen Technikplattformen mehr: Durch ihre technische Funktionsweise und unternehmerischen Eigeninteressen nehmen sie Einfluss auf die Mediennutzung und damit auf die Meinungsbildung der Nutzerinnen und Nutzer.

Gut ist, was gefällt

Zwar spricht derzeit nichts für eine gezielte politische Beeinflussung der Öffentlichkeit durch Informationsintermediäre, dies wäre ihrem Geschäftsmodell auch wenig dienlich. Um möglichst große Gewinne zu erzielen, brauchen sie aber Aufmerksamkeit - neben Daten die Währung in der digitalen Marktwirtschaft. Dazu müssen Nutzer möglichst lange auf ihren Plattformen gehalten werden. Gut ist dementsprechend, was Nutzern gefällt, besser noch, was sie interagieren lässt. Entsprechende Inhalte können durch algorithmische Personalisierung gewinnbringend platziert werden. Ob das nun hochwertige journalistische Angebote sind oder Fake News, spielt dabei bisher keine große Rolle.

Eine derzeit in weiten Teilen noch ungeklärte Frage ist, wie sich der Medienkonsum entwickelt, wie genau sich das auf einzelne Menschen, verschiedene Gruppen oder ganze Gesellschaften auswirkt. Erste Studien zeigen, dass junge Menschen Informationsintermediäre zunehmend als wichtige Quelle für Nachrichten nutzen, auch wenn sie nicht immer zentraler Teil des Informationsrepertoires zu gesellschaftlichen Ereignissen sind. Gleichzeitig zeigt sich in sozialen Netzwerken Potenzial für eine verstärkte Polarisierung, durch die sich zum Beispiel die Wahrnehmung des Meinungsklimas verändert und Medienhypes verstärkt werden können. Entsprechende Effekte sind in manchen Bevölkerungsgruppen deutlicher nachweisbar als in anderen.

Und auch wenn das Informationsrepertoire in Deutschland aktuell noch breit ist, dürfen die Gefahren für die Meinungsbildung nicht unterschätzt werden. Reicht es tatsächlich aus, Meinungsvielfalt eher statisch und linear zu definieren oder kommt es vielleicht stärker auf die tatsächliche Nutzung an? Solche Fragen müssen bald beantwortet werden, denn der Schutz der Meinungsvielfalt kann nur im Vorfeld erfolgen. Ist sie einmal beschädigt, kann sie kaum wiederhergestellt werden. Deswegen ist es so wichtig, jetzt zu handeln.

Wir sind uns einig: Algorithmen sind aus unserer Informationslandschaft längst nicht mehr wegzudenken. Sie haben viele positive Eigenschaften und unterstützen uns bei der Nutzung von Medien, dabei, die Informationsflut zu überblicken. Ziel kann also nicht ihre Abschaffung sein. Wir müssen uns darüber Gedanken machen, welche Prinzipien in einer freiheitlichen, demokratischen und rechtstaatlichen Gesellschaft für algorithmische Entscheidungsmacht gelten sollen. Wie können wir Medien- und Meinungsvielfalt erhalten, wie die Autonomie des Individuums im Umgang mit Algorithmen stärken?

Wahlfreiheit der Nutzer stärken

Auf diese Fragen gibt es keine einfachen Antworten, aber erste Ansatzpunkte: Zunächst bedarf es einer gezielten Transparenz. Dabei kann es nicht darum gehen, dass Such- und Empfehlungsfunktionen ihre Algorithmen offenlegen, da sie dann ihre Aufgabe nicht mehr erfüllen könnten. Plattformen müssten aber zumindest über ihre eigene Rolle Transparenz schaffen, indem sie zum Beispiel in einer Selbstdeklaration ihre Werte und Leitprinzipien veröffentlichen. Sie können dann an ihren eigenen Aussagen gemessen werden. Genauso wichtig ist, dass Wissenschaft und Medienaufsicht Einblick in Daten erhalten, um zum Beispiel die Kriterien und Mechanismen von algorithmischen Entscheidungsinstanzen, die unsere Medienvielfalt beeinflussen, nachvollziehen zu können. Denn Erkenntnisse sind immer nur so gut, wie die Datenlage es zulässt. Daran mangelt es derzeit gravierend.

Einigkeit besteht zudem darin, Diskriminierungsfreiheit zu sichern. Was aber heißt das genau? In Zeiten zunehmender Personalisierung verlangt dies nach neuen Konzepten. Man wird sich leicht darauf verständigen können, dass marktstarke Anbieter ihre eigenen Produkte nicht bevorzugen dürfen. Doch welche Bedeutung kommt zum Beispiel dem Kontext zu? Müssen bei reinen Serviceinformationen andere Relevanzkriterien gelten? Welchen Rang haben journalistische Angebote? Brauchen wir besondere Regeln der Auffindbarkeit? Können wir dafür gemeinsame Wertvorstellungen definieren? Hierüber müssen wir eine gesellschaftliche Debatte führen und Benchmarks entwickeln.

Möglicherweise muss auch die Regulierung künftig stärker technische Mittel einsetzen. Die Wahlfreiheit der Nutzer würde gestärkt, wenn ihnen selbst die Entscheidung überlassen wäre, welche Selektionswerkzeuge sie einsetzen, um Nachrichten zu erhalten oder mit anderen zu interagieren. Auf marktstarken Plattformen bedürfte es dazu zum Beispiel Datenportabilität und offener Schnittstellen für Wettbewerber oder Open Source Projekte. Und vielleicht heißt es dann irgendwann: "Bring your own algorithm..."

zurück zur Übersicht