Zum Inhalt springen

Informationswissenschaftlerin „Jede Nachricht beeinflusst die Meinung“

Wie beeinflussen Algorithmen die öffentliche Meinung? Das hat Britta Oertel zusammen mit anderen Wissenschaftlern untersucht. Im Interview spricht sie mit uns über Vor- und Nachteile der sozialen Medien.

Porträt von Britta Oertel

„Algorithmen sind nicht grundsätzlich gefährlich“, sagt Informationswissenschaftlerin Britta Oertel, man müsse sie aber kontrollieren. © IZT

Unsere Leser kennen keine Welt ohne digitale Medien. Haben diese Medien stärkere Veränderungen mit sich gebracht, als es bei medialen Umbrüchen zuvor jemals der Fall war?

Der Buchdruck und der Rundfunk, also Radio und Fernsehen, sind klassische Beispiele für Medien, die die Kommunikation zu ihrer Zeit umbruchartig verändert haben. Der Buchdruck hat es möglich gemacht, Geschriebenes oft zu vervielfältigen. Dadurch haben viel mehr Menschen Zugang zu gedrucktem Wissen bekommen. Durch das Radio konnten viele Menschen Redner und Rednerinnen ohne Zeitverzögerung zuhören. Man spricht hier von Verteilmedien, damit ist gemeint, dass es bei diesen Medien einen Sender der Inhalte, aber viele Empfänger gibt.

Wenn wir uns den Wandel ansehen, der durch die digitalen Medien entstanden ist, können wir Gemeinsamkeiten mit den Umbrüchen, die durch Buchdruck und Rundfunk passiert sind, erkennen. Denn die Veränderungen, die durch die jeweils neuen Entwicklungen hervorgerufen wurden, waren in allen Fällen sehr groß. Außerdem konnte niemand vorhersehen, wie sich diese Neuerungen auf die Gesellschaft und jeden Einzelnen auswirken würden. Und das wusste man auch nicht, als die digitalen Medien entwickelt und populär wurden.

Gibt es auch Merkmale, die nur die digitalen Medien mitgebracht haben?

Ja, es gibt auch große Unterschiede zwischen den medialen Umbrüchen früher und dem Umbruch, der durch die digitalen Medien entstanden ist. In sozialen Netzwerken können Menschen nicht nur Nachrichten empfangen, sie können sie auch sofort kommentieren oder sogar neue Nachrichten erzeugen. Das war nie zuvor der Fall.

Mit diesem Merkmal waren vor allem in den ersten Jahren der Digitalisierung – also um die Jahrtausendwende herum – viele Hoffnungen auf demokratische Beteiligung verbunden. Heute sehen wir das differenzierter und wissen, dass auch Gefahren drohen.

Welche Gefahren sind das?

Beispielsweise sammeln die Betreiber von sozialen Netzwerken viele Daten über uns. Sie können daraus Nutzerprofile entwickeln. Dann können sie uns nicht nur Inhalte ausspielen, die auf uns zugeschnittene sind, sondern sie könnten uns auch Falschinformationen zusenden, mit denen wir in die Irre geführt oder manipuliert werden sollen.

Das Büro für Technikfolgenabschätzung (TAB) hat einen Bericht über den Einfluss von Algorithmen auf die Meinungsbildung veröffentlicht. Wie sieht dieser Einfluss aus?

Suchmaschinen, soziale Medien und Videoplattformen sammeln, verarbeiten und verbreiten eine hohe Anzahl an Informationen aus unterschiedlichen Quellen. Die Betreiber dieser Onlineplattformen entwickeln und nutzen Algorithmen, um zu entscheiden, welche Meldungen welchen Personen in welcher Reihenfolge angezeigt werden.

Und grundsätzlich ist es so, dass jede Nachricht, die uns erreicht, unsere persönliche Meinungsbildung beeinflusst - egal ob über Zeitung, Fernsehen, soziale Netzwerke oder den Freundeskreis. Und letztlich wird durch jede persönliche Meinung auch die öffentliche Meinung beeinflusst.

Wie entsteht denn öffentliche Meinung?

Wie eine gesellschaftliche Meinung entsteht, hängt von vielen Faktoren ab. Besonders zum Beispiel davon, welche Themen in der Gesellschaft diskutiert werden. Ob die öffentlich kommunizierten Fakten und Hintergrundinformationen korrekt sind, welche Positionen vertreten werden und ob auf gegenläufige Meinungen hingewiesen wird.

Die Themen, die in der Gesellschaft diskutiert werden, werden heute auch durch algorithmische Entscheidungen gesetzt, denn die Algorithmen bestimmen, was wir in sozialen Medien zu sehen bekommen. Das können auch Falschnachrichten sein, die oft so aufgebaut sind, dass sie unsere Aufmerksamkeit erregen, damit wir sofort aus Neugier draufklicken.

Der Deutsche Bundestag hat das Büro für Technikfolgenabschätzung beauftragt, die Untersuchung zu den Algorithmen durchzuführen. Wie genau arbeitet das TAB?

Das TAB ist eine wissenschaftliche Einrichtung, die den Deutschen Bundestag zu Technik- und Wissenschaftsthemen berät. Dabei stehen aktuelle Entwicklungen im Vordergrund. Das TAB erarbeitet sogenanntes Orientierungswissen, das allen im Bundestag vertretenen Parteien zugutekommt. Daran wirken ungefähr 25 Wissenschaftlerinnen und Wissenschaftler mit.

Die Themen unserer Studien werden von den Ausschüssen und Fraktionen des Deutschen Bundestags vorgeschlagen und dann vom Ausschuss, der für das TAB zuständig ist, ausgewählt. Das ist der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung. Das TAB arbeitet selbstständig. Und unsere Analysen loten gesellschaftliche, wirtschaftliche und ökologischen Chancen und Risiken aus.

Oft wird befürchtet, dass wir alle in sogenannten Filterblasen leben, also durch Algorithmen immer auf dieselben Themen und Sichtweisen gestoßen werden und wenig neue Eindrücke bekommen. Welche Erkenntnisse gibt es dazu im Bericht?

Das ist eine sehr komplexe Frage, die gar nicht so einfach zu beantworten ist. Algorithmen der großen Plattformen wie Facebook und YouTube haben das Ziel, die Nutzer und Nutzerinnen auf der Plattform zu halten, um – kurz gesagt – Geld zu verdienen. Deswegen zeigen uns einige Plattformen vor allem Inhalte an, bei denen der Algorithmus davon ausgeht, dass sie uns interessieren und unsere eigene Meinung widerspiegeln. Das Geldverdienen geschieht über Werbung, für die Firmen bezahlen und die wir ausgespielt bekommen, wenn wir die Plattformen nutzen.

Filterblasen entstehen, wenn der Algorithmus uns hauptsächlich Inhalte anzeigt, die uns interessieren und unsere eigene Meinung bestärken. Wir werden dann nicht mehr mit anderen Meinungen konfrontiert. Und natürlich sollten wir uns in unserer Gesellschaft auch mit den Ansichten anderer Menschen auseinandersetzen.

Aber Untersuchungen haben beispielsweise ergeben, dass die Ergebnisanzeigen der Suchmaschine Google vielfältiger sind als oft befürchtet. Viele Wissenschaftler sind skeptisch, ob Filterblasen ein für die Meinungsbildung bedeutendes und weit verbreitetes Phänomen sind.

Gibt es auch Ergebnisse, die eine Gefahr der Filterblasen belegen?

Relativ eindeutig lässt sich sagen, dass Filterblasen für Anhänger von Verschwörungstheorien oder Zugehörige extremer Gruppen sehr bedeutsam sein können. Beispielsweise ist der YouTube-Algorithmus in die Kritik geraten, weil die Vorschläge der Plattform zu Filterblasen führen könnten. So eine Filterblase kann zum Beispiel entstehen, indem jemandem, der häufig Videos zu einer gängigen Verschwörungstheorie ansieht, weitere Videos zu dieser Verschwörungstheorie zu sehen bekommt und keine Videos, die dieser widersprechen.

Eine pauschale Antwort auf die Frage, ob Filterblasen die Meinungsbildungsprozesse beeinflussen, kann ich also nicht geben. Aber es ist wichtig, dass diese Themen stetig wissenschaftlich untersucht werden. Auch Themen wie Fake-News und das Erstellen und Verkaufen von Nutzerprofilen sollten beispielsweise im Blick behalten werden.

Dass sich die Vielfalt der Meinungen in den Medien widerspiegelt, ist wichtig, damit Bürger und Bürgerinnen sich ihre Meinung bilden können. Ist das in Deutschland in ausreichendem Maße der Fall?

Aktuelle Umfragen zur Mediennutzung zeigen, dass sich die meisten Menschen in Deutschland über unterschiedliche Quellen informieren. Das gilt auch für die Gruppe der jungen Menschen. Der Anteil der Personen, die sich im Internet oder sogar nur im Internet informieren steigt, aber innerhalb der Internet-Nutzung sind natürlich trotzdem unterschiedliche Medien und viele Positionen vertreten. Wer sich breit informieren will, hat dafür gute Möglichkeiten.

Wie könnte man die Meinungsvielfalt rechtlich weiter absichern?

Der Rechtsrahmen wurde – und wird – an die digitalen Medien angepasst. Ein aktuelles Beispiel ist das Gesetz über digitale Dienste, das auf EU-Ebene gerade in Kraft getreten ist. Unter anderem werden die großen Plattformen damit verpflichtet, illegale Inhalte schneller zu entfernen. Auch müssen sie Maßnahmen ergreifen, um die Manipulation von demokratischen Wahlen zu verhindern. Wahlmanipulation kann nämlich durch sogenannte Desinformationskampagnen geschehen, beispielsweise indem Gerüchte über Wahlkampfkandidaten gezielt an Nutzer gesendet werden, um sie zu einer anderen Wahlentscheidung zu verleiten. Dieses Gesetzeswerk wird von vielen Fachleuten gelobt, weil es weltweit Maßstäbe zum Schutz der Nutzer setzt.

Abschließend möchte ich noch einmal betonen: Ein Algorithmus ist nicht grundsätzlich etwas Übles. Gefährlich wird es, wenn Algorithmen einseitig eingesetzt und in ihrer Wirkungen nicht kontrolliert werden. Unbestritten ist: Soziale Netzwerke haben eine hohe Macht, weil sehr viele Menschen in ihnen unterwegs sind, sich dort informieren und austauschen. Dessen müssen wir uns bewusst sein.

Zur Person

Britta Oertel

Britta Oertel kommt aus Schleswig-Holstein, lebt und arbeitet seit mehr als 40 Jahren in Berlin. Sie hat Informationswissenschaft studiert. Seit 1993 ist sie beim IZT – Institut für Zukunftsstudien und Technologiebewertung, das Mitglied des Büros für Technikfolgenabschätzung ist. Britta Oertel beschäftigt sich vorrangig mit der Frage, wie die Folgen neuer Technologien in unserer Gesellschaft diskutiert werden.

Mehr zum Thema