Was mit Medien und so

Blog über Journalismus & Medien

Willkommen in der Facebook-Filterblase – Medien müssen leider draußen bleiben

(Nicht erst) Seit dem unerwarteten und von Meinungsforschern anders prognostizierten Wahlausgang in den USA ist neben vielen Diskussionen eine Frage wieder neu entbrannt: Welchen Einfluss hatte und hat Facebook auf den Ausgang der Wahl und damit generell: Welchen Einfluss hat Facebook auf die Meinungsbildung seiner Nutzer generell? Eine Diskussion die NÖTIG und WICHTIG ist.

Mark Zuckerberg degradiert sich diesbezüglich jüngst mit seiner Aussage: „Ich persönlich glaube, die Überzeugung, dass Fake-Nachrichten auf Facebook die Wahl in irgendeiner Art und Weise beeinflusst haben könnten, ist verrückt“ (https://www.facebook.com/zuck/videos/10103248351713921/ ab Minute 12:30) meiner Meinung nach zu einem dummen Jungen im T-Shirt. Denn wenn einer um genau diesen Einfluss von Facebook wissen muss, dann er.

Man darf Zuckerberg hier eigentlich sogar der Lüge verdächtigen, denn Facebook wirbt ganz konkret mit eben diesem Einfluss. Und zwar wenn es darum geht, Anzeigenkunden zu gewinnen. So lesen wir hier (https://www.facebook.com/business/overview), hier (https://www.facebook.com/business/news/Relevanzbewertung) und hier (https://www.facebook.com/business/products/ads/) beispielsweise:

„More than 1.7 billion people use Facebook to connect with friends and family and to discover things that matter.“

„Wir liefern Werbeanzeigen an Personen auf Grundlage der Art und des Zeitpunkts ihrer Interaktionen aus. So sorgen wir für ein Erlebnis, das für den Punkt, an dem sie sich in der Recherche deiner Produkte befinden, relevant ist….“

„Wir versuchen, den Menschen auf Facebook immer nur die Werbung anzuzeigen, die für sie relevant ist. Aus diesem Grund nutzen wir seit jeher Relevanz als einen Faktor, um zu bestimmen, wie und an wen wir Werbeanzeigen ausliefern.“ 

Es lassen sich viele ähnliche Aussagen finden, mit denen Facebook seinen Anzeigenkunden erklärt, dass Facebook seinen Nutzern vor allem Relevanz vermittelt. In diesem Falle relevante Werbung, damit die Firmen die Kunden erreichen bei denen sie mit einer hohen Affinität zu ihren Produkten rechnen können und damit mit möglichen Kaufabschlüssen oder anderen Reaktionen, auf die die Werbung abzielt.

Relevanz ist der Dreh- und Angelpunkt!

Doch Relevanz ist noch aus anderen Gründen ein zentrales Kriterium für Facebook. Facebook will seine Nutzer so lange wie möglich in seinem „walled garden“ (https://de.wikipedia.org/wiki/Walled_Garden) also auf der Seite halten. Je länger der Nutzer bleibt, umso mehr Werbung wird er betrachten, was Facebook Umsatz bringt. Damit der Nutzer bleibt, muss es Facebook gelingen, ihm Inhalte wie Posts, Bilder, Videos zu zeigen, die relevant sind. Relevant für IHN, den Nutzer.

Die Sammlung von Algorithmen auf Facebook, meist als Edge-Rank bezeichnet, haben also die Aufgabe, das Verhalten des Nutzers auf der Seite zu analysieren und ihm dann Inhalte auszuspielen, die ihn interessieren. Langweilt sich der Nutzer, ist er weg, fühlt er sich nach seinen Interessen und Bedürfnissen informiert und unterhalten, bleibt er und Facebook hat sein Ziel erreicht.

Nutzer-bezogene Relevanz bläht die Filterblase

Haben wir also einen der „besorgten Bürger“, der sich von Hetze und Fremdenhass aufstacheln lässt und überzeugt ist, dass alle Flüchtlinge Sozialschmarotzer, Diebe und Vergewaltiger sind, wird er eben solche Meldungen lesen, die dieses Weltbild bestätigen. Er will ja recht haben und seine Einstellung gegen Flüchtlinge durch entsprechende „Belege“ bestätigt wissen.

Facebook wiederrum analysiert, dass er häufig solche Meldungen liest und wird sich bemühen, ihm mehr davon zu liefern, aus den oben genannten Gründen. Liest der Nutzer also beispielsweise einen der Hetzbeiträge der Seite www.rapefugees.net, wird der Facebook-Algorithmus ihm mehr dieser Meldungen liefern, wenn diese auf Facebook gepostet werden.

Das Impressum von Rapefugees weist einen „F. Mueller“ im südamerikanischen Punta del Este in Uruguay als Betreiber aus. Die Seite ist bekannt dafür Meldungen über Sexualdelikte auf Flüchtlinge als Täter umzuschreiben, auch wenn in der Originalmeldung keinerlei Angaben dieser Art gemacht wurden. Zudem werden harmlose Polizeiberichte entsprechend frisiert und „sensationalisiert“. Garniert werden diese Meldungen immer wieder mit vermeintlichen Belegen von Vertuschungen durch den deutschen Staat.

Der thematisch entsprechend orientierte Nutzer dreht also in seiner durch seine Interessen und die Facebook-Algorithmen generierte Filterblase seine runden. Facebook liefert alles, um das krude Weltbild zu prägen.

Nehmen wir eine andere Seite wie 24aktuelles.com, eine die offen Zugibt, dass es hier um die Verbreitung von Falschmeldungen geht:

„ÜBER UNS: 24aktuelles.com – ist eine Internetseite die zur Unterhaltung dient, die falschen News werden von unseren Usern verfasst. Alle Nachrichten dieser Seite sind frei erfunden und fiktiv, es ist alles nur Spaß! Keine der Fake-News sollte ernst genommen werden oder als seriöse Informationsquelle benutzt werden.“

Zahlreiche Falschmeldungen über Horrorclowns wurden im Oktober 2016 über diese Seite verbreitet und viele Facebook-Nutzer glaubten, echte Nachrichten zu lesen und verbreiteten dieses Mist weiter. Die Seite kassiert derweil über die platzierte Werbung ab.

Medien müssen leider draußen bleiben

Diese Filterblase, die von den Algorithmen von Facebook erzeugt wird, verstärkt sich quasi selbst, da dem Nutzer immer mehr von dem geboten wird, was er lesen will und er das natürlich auch begierig liest, was dem Algorithmus natürlich wieder neue Nahrung gibt. Er liest, klickt auf „Gefällt mir“ und teilt und Facebook liefert Nachschub.

Was die Facebook-Algorithmen nicht prüfen – wozu auch – ist der Wahrheitsgehalt von Meldungen. Ob der Nutzer die Wahrheit oder eine Lüge konsumiert ist für Facebook und dessen Werbeerlös-Optimierung irrelevant.

Der Nutzer wird Meldungen, die sein Weltbild widerlegen meiden ebenso meiden, wie Inhalte, die ihn gar nicht interessieren. Damit wird die vermeintliche Intelligenz von Facebook ihm solche Inhalte in Zukunft auch weniger anzeigen. Die Filterblase wächst. „Ernährt sich“ ein Facebook-Nutzer also nur von Falschmeldungen und Propaganda entsprechender „Interessengruppen“, die die Wahrheit bewusst verschleiern oder verdrängen wollen, wird er echte Meldungen und Nachrichten über das, was tatsächlich in der Welt geschieht, immer seltener sehen und wahrnehmen. Selbst wenn er keine Falschmeldungen und Propaganda konsumiert, wird er durch die Facebook-Algorithmen einseitig nur das geliefert bekommen, was in den Blickwinkel seiner Scheuklappen passt. Alles andere wird immer weiter ausgeblendet.

Medien haben es deshalb immer schwerer, in diese Filterblasen einzudringen und einen Blick auf die reale Welt zu liefern. Zudem wissen entsprechende „Spin Doktoren“ (https://de.wikipedia.org/wiki/Spin-Doctor) und Propagandisten genau, wie diese Filterblase funktioniert und wie man diese schnell und einfach mit entsprechendem Futter beliefert. Lügen und Fakes sind schnell geschaffen und verbreitet, denn journalistische Pflichten wie, Recherche und Verifikation etc. entfallen.

Twitter und Facebook wirken durch die Funktionen Retweet und Teilen zudem als Multiplikatoren, sodass diese Informationen mit einem starken Hebel verbreitet werden können. Auch hier ist der Nutzer in seiner Filterblase wieder Multiplikator, wenn er solche Inhalte teilt.

Soziale Netze wie Facebook manipulieren die Welt

Auch wenn Facebook-Boss Zuckerberg mit seiner armseligen Behauptung die Verantwortung von Facebook aus der Welt zu reden versucht, der Einfluss den Facebook und andere soziale Netzwerk auf die Realitätswahrnehmung ihrer Nutzer haben ist GEWALTIG.

Und diese Wirkung wird genutzt. Beispielsweise auch durch Bots, die Likes für bestimmte Themen generieren oder diese teilen oder gar erzeugen. Die AfD hat bereits angekündigt, im Wahlkampf „Social Bots“ einzusetzen (http://www.spiegel.de/netzwelt/netzpolitik/afd-will-im-wahlkampf-social-bots-einsetzen-a-1117707.html). Sprich, die technische Manipulation der Informationsverbreitung ist längst Bestandteil des Arsenals der Kommunikation bei Wahlkämpfern und Propaganda.

Im Prinzip müssten soziale Netzwerke per Gesetz gezwungen werden, sich dieser Wirkung zu stellen, die sie haben. Nur wie soll das praktisch umgesetzt werden?

Medien müssen selbst aktiv werden

Doch die Schuld alleine den sozialen Netzen in die Schuhe zu schieben ist zu kurz gesprungen. Medien müssen selbst aktiv(er) werden, um in diese Filterblase einzudringen. Wenn (manche) Medien aber nur Clickbait auf sozialen Medien betreiben – bis hin zu dämlichen Katzenvideos – statt die wirklich wichtigen Themen voran zu treiben, dann bleibt festzustellen, dass es hier für uns Medien noch viele Hausaufgaben gibt.

Leave a Reply

Your email address will not be published.

*

CAPTCHA
Change the CAPTCHA codeSpeak the CAPTCHA code
 

Optimization WordPress Plugins & Solutions by W3 EDGE