Facebooks Faktenchecker lenken vom wahren Problem ab
Von Jochen Mitschka am 20. Oktober 2021
Die Whistlebowerin Frances Haugen zeigte, dass Facebook sehr wohl in der Lage war zu erkennen, dass die Algorithmen der Plattform gefährliche Inhalte fördern. Das Unternehmen versuchte allerdings nicht, das zu ändern, um die Werbeeinnahmen nicht zu gefährden, sondern zu maximieren.
Statt Hass zu reduzieren, verursachen die Algorithmen bewusst eine Polarisierung der Gesellschaft. Aber nicht aus dem Grund, aus dem die Politik mit “
teile und herrsche” das gleiche praktiziert. Sondern durch das Zulassen der Erzeugung von Hass, Falschinformationen und einseitigen Berichten werden die Aktivitäten auf den Plattformen erhöht. Und höhere Klickzahlen bedeuten höhere Gewinne. Es war keine politische Agenda, welche vorangetrieben wurde, sondern eine, die den Profit maximieren sollte. Dass dadurch zum Beispiel Teenager, besonders junge Frauen, gefährdet wurden, weil sie keine, den Idealvorstellungen entsprechende Figur hatten, nahm Facebook in Kauf.
Dies kann man Dokumenten entnehmen, welche
Whistleblowerin Haugen, der Jahre für das Unternehmen gearbeitet hatte, mit zehntausenden von Seiten öffentlich gemacht hat.
Selbst das
Wall Street Journal konnte nicht anders, als das Beispiel der bewussten Inkaufnahme von psychischen Erkrankungen von Teenagern anzuprangern. Und Haugen trat mit den brisanten Informationen öffentlich in
Kongressanhörungen, aber auch bei
CBS auf.
Eigentlich sollte das nicht überraschen. Denn es war nicht das erste Mal, dass Facebook vorgeworfen wurde manipulativ, einseitig, profitorientiert zu agieren. Da gab es die Enthüllungen über die Datenfirma
Cambridge Analytica im Jahr 2018. Auch
UN-Ermittler hatten bereits festgestellt, dass auf Facebook Hass und die Menschen spaltende Gewalt gegen Rohingyas in Myanmar zugelassen worden war. Oder ein anderes Beispiel ist das Zulassen von gewaltfördernden Inhalten während der Unruhen in Muzaffarnagar, dem Indischen Bundesstaat Uttar Pradesh in den Jahren 2013 und 2017.
Warum ist dies eine große Neuigkeit, wo doch diese Fragen in Bezug auf Facebook immer wieder aufgeworfen wurden und noch deutlicher in den Vordergrund traten, nachdem die Enthüllungen über die Datenfirma Cambridge Analytica und Facebook im Jahr 2018 öffentlich wurden? Wussten wir nicht bereits, dass Facebook, WhatsApp und andere Social-Media-Plattformen heute zu mächtigen Instrumenten geworden sind, die dazu beitragen, Hass und spaltende Politik zu fördern? Haben die UN-Ermittler Facebook nicht für die völkermörderische Gewalt gegen Rohingyas in Myanmar verantwortlich gemacht? Waren nicht ähnliche Muster während der kommunalen Unruhen in
Muzaffarnagar im indischen Bundesstaat Uttar Pradesh in den Jahren 2013 und 2017 zu beobachten?
Aber immer waren es Beschuldigungen, denen der Konzern auswich, sich entschuldigte, Veränderungen ankündigte, aber in Wirklichkeit ignorierte. Aber nun gibt es Beweise. Es gibt interne Dokument, die beweisen, dass Facebook ganz bewusst die Folgen akzeptierte, im Interesse von Klickzahlen.
Prabir Pukayastha beschreibt das Geschäftsmodell von Facebook treffend:
“Durch die Bevorzugung von Beiträgen, die das ‘Engagement’ fördern – d. h. das Lesen, Liken oder Beantworten von Beiträgen auf Facebook, WhatsApp und Instagram – sorgte Facebook dafür, dass die Menschen viel länger auf seiner Plattform blieben. Die Facebook-Nutzer konnten dann effektiver an die Werbetreibenden ‘verkauft’ werden, indem ihnen mehr Anzeigen gezeigt wurden. Das Geschäftsmodell von Facebook besteht nicht darin, Nachrichten zu verbreiten, freundliche Gespräche zwischen den Nutzern zu führen oder Menschen zu unterhalten. Es verkauft seine Nutzer an diejenigen, die ihnen Waren verkaufen können. Und wie Google weiß es viel besser, wer seine Nutzer sind und was sie kaufen könnten. Das ist es, was Facebook im Jahr 2020 98 Prozent seiner Einnahmen bescherte und es zu einem der sechs Billionen-Dollar-Unternehmen (Stand: September 2021) in Bezug auf die Marktkapitalisierung gemacht hat.”
https://countercurrents.org/2021/10/how-...c-content/
Aber Facebook hat nicht nur “versehentlich” toleriert, sondern aktiv nach gefährlichen Inhalten gesucht und sie gefunden.
Haugen bestätigte, dass Facebook künstliche Intelligenz einsetzt, um solche Inhalte zu finden, während Facebook behauptet, dass die Organisation solche Inhalte nicht ausreichend indentifizieren könne. Aber als Ergebnis greifen die Algorithmen von Facebook diese gefährlichen Inhalte auf, welche extreme Gefühle verursachen, und streit und gesellschaftliche Spaltung verursachen.
Nun hatte Facebook darauf reagiert und so genannte Faktenchecker eingesetzt, um so genannte FakeNews und Hasspostings herauszufiltern. Das Ergebnis kennen wir als politische Zensur. Allerdings lief im Hintergrund nicht wirklich eine politische Agenda ab, sondern damit sollte nur die Politik zufriedengestellt werden, sondern, wie Purkayastha erklärt: “
Der Treiber des Datenverkehrs oder das, was eine Person in ihrem Feed sieht – oder, wie Facebook es ausdrückt, womit sie sich beschäftigt – wird von Algorithmen bestimmt. Und diese Algorithmen waren darauf ausgerichtet, die giftigsten und spalterischsten Beiträge zu fördern, da dies das Engagement anzieht. Die Steigerung des Engagements ist die wichtigste Triebfeder für die Algorithmen von Facebook und macht jede Maßnahme zur Entgiftung der Inhalte zunichte.“
Damit wird auch klar, dass sich alle Kritik auf die “Faktenchecker” konzentriert, diese aber in Wirklichkeit nur zur Ablenkung des wahren Problems, als Bauernopfer, hingehalten werden. Entscheidend sind die Algorithmen, welche das Engagement von Nutzer durch Förderung von Hass und Gewalt nutzen, um höhere Werbeeinnahmen generieren zu können.....
weiter >
https://www.frischesicht.de/facebooks-fa...roblem-ab/