Nicht Facebook allein ist schuld: Filterblasen, Realität und wir

Wir müssen reden. Dringend. Da draussen im Facebook-Land geistern Millionen von Filterblasen umher und richten Furchtbares an! Und auch bei Twitter wird es immer schlimmer! Instagram! Snapchat! Filter, Filter, Filter und Blasen, Blasen, Blasen! Die sind schuld! Diese Weltansicht, die Facebook, Twitter und Co. erzeugen, wenn man nur auf selektive Wahrnehmung setzt! Furchtbar! Dieses Internet ist ja auch so etwas von Übel!

Derzeit kann man es sich als Journalist natürlich so einfach machen und genau das ist das Problem: Journalisten machen es sich so einfach. Was die Lehren aus dem amerikanischen Wahlkampf am Tag 3 nach Trump sind? Dass Facebook nichts weiter ist als eine große, große Lügendurchreichpresse. Na ja, das schreibt so keiner. Aber annähernd ist der Tenor schon die Richtung. Siehe Spiegel-Online.  Und weil das so schön ist und natürlich jetzt schon weitere US-Quellen existieren, die das auch so sehen, wiederholt man das bei Spiegel-Online nochmal.  Und ja, natürlich ist das, was das Wallstreet-Journal da zeigt erschreckend. Das dürfte so oder ähnlich auch in Deutschland passieren: Man bekommt nur die Meldungen in die Echokammer gespielt, die die eigene Meinung noch bestärken.

Es ist nicht nur der Algorithmus: Es sind auch WIR!

Ja. Für viele Amerikaner und mehr und mehr Deutsche ist Facebook die einzig relevante Informationsquelle. Und wenn man jetzt nicht den Fehler in diesem Satz entdeckt, dann sollte man ihn nochmal lesen und drüber nachdenken: Facebook ersetzt die öffentlichen Medien – ersetzt das ZDF, die ARD, ersetzt RTL, RTL2 – sofern man die News von denen noch als Journalismus bezeichnen kann, da zweifle ich wirklich manchmal – Facebook ist für Viele die einzige relevante Informationsquelle. In den USA ist übrigens Twitter noch wichtiger, wenn es um Live-Events geht, siehe Link. Natürlich ist das der absolute GAU. Der Größte Anzunehmende Unfall. Gar keine Frage.

Die Frage ist jetzt, wie wir mit dieser Information umgehen – und bevor ich das frage, möchte ich mal den typisch deutschen Reflex anprangern: Journalisten hauen momentan auf Facebook ein als wäre Facebook allein an der Wahlentscheidung in den USA schuld. Der Newsfeed soll abgeschafft werden! Zuckerberg sei „in denial“ und somit doch irgendwie verantwortlich, so Spiegel Online. Sagen ja auch die amerikanischen Medien! Laut Spiegel Online und wenn das so ist, dann stimmt das natürlich auch vorbehaltlos. Die deutsche WIRED ist sich nicht zu schade, Zuckerberg zu belehren: Man könne beim Algorithmus doch bestimmte Quellen besser als real und richtig bewerten lassen! Das nur stellvertretend für den momentanen Umgang mit Facebooks Verlautbarung, man habe mit dem Wahlausgang nichts zu tun.

Nun ist die Frage, in wieweit das „Trending“-Feature – das man bei uns in Deutschland bisher nicht eingeführt hat – manipulativen Charakter haben kann schwer zu klären. Gerade weil wir in Deutschland das Feature nicht kennen und Facebook natürlich auch nicht unbedingt erklärt, wie die Themen dort gewichtet werden. Außer wie immer: „Trending topics are based on factors including engagement, timelines, Pages you’ve liked and your location.“ Also fließen irgendwie unsere Vorlieben, unsere Likes, unser Engagement da rein. Und: „When you click on a trending topic you’ll be taken to a page with content related to that topic. The content includes public posts and posts from your network (like updates from your friends and groups).“ Also sind wohl tatsächlich auch die eigenen Freunde und das eigene Netzwerk relevant. Aber Facebook stellt auch durchaus fest: „Our team is responsible for reviewing trending topics to ensure that they reflect real world events.“ Wobei das gar nicht mehr unbedingt stimmt, es steht aber immer noch so auf der FAQ-Seite. Nachdem Kritik an der Arbeitsweise der menschlichen Redakteure aufgekommen war, feuerte Facebook diese und setzte für die Trending Topics ganz auf den Algorithmus. Was absolut danebenging wie der Guardian unter anderem berichtete. Und TechCrunch spöttelte: „Nach nur drei Tagen, nachdem Facebook das Redaktionsteam feuerte, trendete eine falsche Megyn-Kelly-Story.“ Das wäre ja verdammt schnell gegangen. Ein Grund für das Ganze übrigens ist im Artikel auch zu finden: „TechCrunch understands from a source familiar with the situation that Facebook’s algorithm for Trending relies on the number of articles and posts about the topic — a relatively easy system to spoof with a fake, viral headline.“ Bedeutet also: Der Algorithmus für die Trending Topics beruht auf der Nummer von Artikeln und Postings über ein bestimmtes Thema und das kann man ja mit Clickbaiting definitiv schnell überrumpeln. Da Facebook sich dazu nicht äußerte kann man annehmen, dass da schon ein Gränchen Wahrheit dran ist.

Facebook: Der Buhmann?

Es ist durchaus eine bittere Wahrheit: Ja, Facebook trifft zumindest eine Teilschuld für Trumps Wahl. Der Guardian hat einen sehr langen und einsichtsreichen Artikel, der allerdings nicht wie deutsche Journalisten nur komplett draufhaut um des Draufhauens Willen und weil es so leicht ist. Auch andere englischsprachige Medien – wobei die meisten sich auf die Buzzfeed-Studie beziehen und Überraschung! Das amerikanische Original kann durchaus guten Journalismus! – geben Facebook eine Teilschuld. Wobei Fortune etwa auch anmerkt, dass das eigentlich Problem bei Facebook nicht die Filterblase an sich sei. Diese habe es lange vorher schon gegeben – etwa in kleinen Städten, in denen die Nachrichten nur von einer Zeitung stammten. Natürlich ist das heutzutage bei uns vollkommen undenkbar, dass Regionen Monopolzeitungen besitzen im Print. Natürlich nicht. Nein, das Problem, so führen die Quellen aus, die Spiegel Online nicht verlinkt, sei einfach, dass Facebook den Filterblasen-Effekt schneller und besser herstelle als die analogen Medien. Der Facebook-Algorithmus verstärke dabei die eigene Weltsicht – Nachrichten, die als unangenehm vom Nutzer bewertet werden würden kämen so gar nicht erst durch. Und vor allem habe Facebook ein Problem mit Fake-News. Ja, schon wieder Buzzfeed, aber die Lektüre lohnt.

Allerdings – und da hat SLANT Recht: Wir wissen momentan nicht, ob Facebook wirklich Schuld hat oder nicht. Und warum können wir das nicht mit Sicherheit sagen? Weil alle Berichte und Forschungen, die Facebook bisher veröffentlichte aus dem eigenen Haus von den eigenen Leuten stammten. Damit also sind die eigentlich unbrauchbar. Facebooks Daten müssten eigentlich von Unabhängigen erforscht werden können. Das aber lässt die Firma momentan nicht zu und es ist unwahrscheinlich, dass sie das auch jemals tun wird. Aber dadurch, dass solche unabhängigen Untersuchungen fehlen ist es schwer zu sagen, ob und wie Facebook nun wirklich Einfluss auf die Wahl hatte oder nicht. Sicherlich: Die Probleme mit den Fake-News bleiben und auch das Phänomen der Filterblase. Und der selektiven Wahrnehmung. Und des Abonnieren von Leuten, die genau dieselbe Meinung haben wie man selbst. Und der eigene Freundeskreis, der stets die eigenen Interessen spiegelt. Und des Nicht-Komplett-Lesens von Meldungen… Moment. Das ist nicht das Problem von Facebook. Das ist unser alleiniges Problem!

Erst denken, dann posten!

Wir machen uns die Welt, wie sie uns gefällt. Zu dieser Ansicht kann man als Anhänger des Konstruktivismus gelangen, aber was Facebook und andere Soziale Netzwerke betrifft kann man die als sehr, sehr wahr betrachten. So wie auch wir in der analogen Welt unsere Freunde sortieren – ich käme nie auf die Idee, jemanden mit dem Gedankengut von PEGIDA unter meinen Freunden zu zählen und wenn, dann ist der wohl so klug, das nicht gegenüber mir zu erwähnen – so sortieren und filtern und listen wir bei Facebook unsere Freunde, die beruflichen Kontakte, die Nachrichten, die wir lesen möchten. Und je mehr wir Postings liken, die unsere Meinung widerspiegeln, desto größer wird die Echokammer und desto kleiner die Wahrscheinlichkeit, dass für uns missliebige Wahrheiten durch Facebooks Filter erreichen. Die wir aber eh nicht lesen wollen und deswegen ausblenden. Selektive Wahrnehmung ist schon eine schöne Sache, das Gehirn muss nicht denken sondern schaltet automatisch und wir lassen über uns die guten Meldungen und Nachrichten ergehen, die unsere eigene Sicht der Dinge stützen.

Noch schlimmer aber – und besonders bei Twitter beliebt: Wir leiten Nachrichten weiter ohne sie ganz gelesen zu haben. Es reicht ja schon, wenn wir die Schlagzeile gelesen haben, der Weiterclick auf die eigentliche Meldung? Zu viel Aufwand. Schnell raus damit, bevor es jemand Anderer postet und den Fame kassiert. 59 Prozent der Nutzer lesen gar nicht weiter, sondern leiten nur weiter – so noch vor kurzem eine Studie.  So richtig überraschend ist das nicht, ähnliche Studien gibts seit zwei, drei Jahren – so richtig was geändert hat sich an dem Verhalten von uns Menschen nun nichts. Und genau das ist ein Teil des Problems, was man auch unbedingt im Zusammenhang mit der Thematik erwähnen muss.

Wir hinterfragen nicht. Oder nicht mehr. Wir geben uns mit dem zufrieden, was andere uns liefern. Gelegentlich schauen wir nochmal auf die Quellen selbst, aber in der Regel – und dank Facebooks total superben Features – können wir die Inhalte sogar lesen ohne Facebook zu verlassen. Was die natürlich auch so wollen. Wir nehmen kritiklos hin und wenn wir versuchen zu diskutieren, werden wir bei Themen, die sehr schneidend und scheidend sind meistens von Leuten überrannt, die Argumenten nicht zugänglich sind. Gutes Beispiel für sowas: Irgendein beliebiges Youtube-Video zur Trump-Wahl momentan und dann mal die Kommentar-Spalte dazu öffnen. Manchmal wird einem dann je nach Sichtweise etwas blümerant oder einfach nur furchtbar schlecht von der Art und Weise, wie Diskurse dort ausgetragen werden. Daher:  Die einzige Chance der Selektiven Wahrnehmung zu entgehen, die einzige Chance nicht in Filterblasen stecken zu bleiben, die besteht in möglichst kritischer Selbstreflexion und dem wiederholten Ratsuchen bei unabhängigen Dritten. Oder Freunden, die einem auch mal das Gegenteil raten. Und natürlich Zuhören und Nachfragen. Immer.

Der GAU: Facebook als einzige relevante Quelle

Damit könnte die Kolumne auch schon am Ende sein, aber da bleibt noch die Frage: Wie gehen wir damit um, dass immer mehr Leute nur Facebook allein als Quelle nutzen? Die Auswirkungen einer solchen News-Rationierung wären ja vorhersehbar: Man würde in einer Welt des ewigen Flausches gefangen sein, nie gäbe es Streit, keine Meinung würde der eigenen widersprechen und natürlich ist Hillary Präsidentin geworfen. – Tschuldigung, konnte nicht widerstehen.

Vermutlich werden wir im Endeffekt gar nichts ausrichten können. Wenn wir schon Millionen von Menschen nicht davon abhalten können die BILD als relevante Quelle wahrzunehmen, dann ist auch Facebook als einzige Nachrichtenquelle wohl oder übel etwas mit dem wir zurechtkommen müssen. Zwar bietet Facebook auch Diversität, aber wie das Beispiel der WSJ – siehe weiter oben – zeigt: So divers ist das alles gar nicht, weil wie Menschen halt dazu neigen bestimmte Dinge nicht wahrzunehmen oder auch Dinge zu übersehen. Sieht man das radikaler, haben wir eventuell gar keine richtige, objektive Vorstellung von der Realität an sich, aber das führt dann doch etwas zu weit.

Facebook bräuchte also mehr Diversität, eingebaut in seinen Algorithmus – oder wir müssten immer wieder betonen, dass Facebook nur einen uns genehmen Ausschnitt der Welt zeigt. Dass wir Filterblasen nicht entkommen können, selbst wenn wir unsere RSS-Feeds möglichst divers zusammenstellen, dass ist irgendwie klar. Letzten Endes bleibt ja immer in Großteil von Quellen im Reader, der mit der eignen Weltsicht übereinstimmt – und was die Huffington-Post-Deutschland betrifft oder die BILD, die kommen mir persönlich wirklich nicht in den Feedreader. Brrr. Aber da ich mir ja bewußt bin, dass es Filterblasen sowohl analog als auch digital gibt, da ich mir bewußt bin, dass diese Dinge nicht allen Leuten bekannt sind, da ich immer und immer wieder auch darauf hinweise, dass Facebook nur ein Ausschnitt des Ganzen ist – vielleicht bin ich damit ja dann doch auf der einigermaßen sicheren Seite. Aber sicher, nein, sicher bin ich mir dann doch nicht. Es ist kompliziert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert