In einem sehr ungewöhnlichen Schritt hat Facebook eine offizielle Stellungnahme mit dem Titel „What ‘The Social Dilemma’ Gets Wrong“ publiziert. Facebook geht darin auf unterschiedliche Punkte ein , die im Film „Das Dilemma mit den sozialen Medien“ auf Netflix angeprangert werden.
Viele Rezensionen zu The Social Dilemma waren tatsächlich kritisch und stellten fest, dass der Dokumentarfilm zwar einige gültige und auch wichtige Punkte hervorhebet, aber in die Sensationslust abfällt, was seine Schlüsselbotschaften letztendlich verwässert.
Kritikpunkten und Behauptungen dieser Art steht Facebook generell gegenüber, aber nach Berichten darüber, dass viele Nutzer nach Ansehen dieses Dokumentarfilms das Löschen ihrer Facebook- und Instagramm-Konten erwägen, hatte das Unternehmen das Bedürfnis, in sieben Punkten eine Anwort zu veröffentlichen.
Das Originaldokument bei Facebook können Sie HIER lesen, wir haben es zudem auch sinngemäß übersetzt.
Was ‘Das soziale Dilemma’ falsch darstellt
Wir sollten Gespräche über die Auswirkungen sozialer Medien auf unser Leben führen. Aber „Das soziale Dilemma“ vergräbt die Substanz im Sensationismus.
Anstatt einen differenzierten Blick auf die Technologie zu werfen, gibt es einen verzerrten Blick darauf, wie Social-Media-Plattformen funktionieren, um einen bequemen Sündenbock für schwierige und komplexe gesellschaftliche Probleme zu schaffen. Die Macher des Films berücksichtigen weder Erkenntnisse von Personen, die derzeit in den Unternehmen arbeiten, noch von Experten, die eine andere Sicht auf die Erzählung des Films haben. Sie erkennen auch nicht – weder kritisch noch anderweitig – die Bemühungen an, die die Unternehmen bereits unternommen haben, um viele der von ihnen aufgeworfenen Probleme anzugehen. Stattdessen verlassen sie sich auf Kommentare von denen, die seit vielen Jahren nicht mehr im Inneren waren. Hier sind die Kernpunkte, die der Film falsch versteht.
1 SUCHT
Facebook baut seine Produkte, um Wert zu schaffen und nicht um süchtig zu machen.
Unsere Newsfeed-Produktteams haben keinen Anreiz, Funktionen zu entwickeln, die den Zeitaufwand für unsere Produkte erhöhen. Stattdessen möchten wir sicherstellen, dass wir den Menschen einen Mehrwert bieten und nicht nur die Nutzung fördern. Zum Beispiel haben wir 2018 unser Ranking für Newsfeeds geändert, um sinnvolle soziale Interaktionen zu priorisieren und und beispielsweise gegenüber viralen Videos den Vorrang zu geben. Diese Änderung führte zu einer Verringerung der täglichen Zeit, die auf Facebook verbracht wird, um 50 Millionen Stunden. Dies ist nicht die Art von Dingen, die man tut, wenn man lediglich versucht, die Menschen dazu zu bringen, Ihre Dienste stärker zu nutzen. Wir arbeiten mit führenden Experten, Organisationen und Wissenschaftlern für psychische Gesundheit zusammen. unsere Forschungsteams widmen sich dem Verständnis der
Auswirkungen, die soziale Medien auf das Wohlbefinden der Menschen haben können. Wir möchten, dass die Menschen kontrollieren können, wie sie unsere Produkte nutzen. Aus diesem Grund bieten wir Zeitmanagement-Tools wie ein Aktivitäts-Dashboard, eine tägliche Erinnerung und Möglichkeiten zur Begrenzung von Benachrichtigungen. Wir haben bereits begonnen, Produktteams einzusetzen, die sich auf andere Bereiche wie Einsamkeit, Rassengerechtigkeit, Mentoring, psychische Gesundheit und verantwortungsvolle Innovation konzentrieren. Wir werden weiterhin innovativ sein und neue Tools entwickeln, die den Menschen helfen, sicher zu bleiben.
2 DU BIST NICHT DAS PRODUKT
Facebook wird durch Werbung finanziert, damit es für Menschen kostenlos bleibt.
Facebook ist eine durch Werbung unterstützte Plattform. Durch den Verkauf von Anzeigen können wir allen anderen die Möglichkeit bieten, sich kostenlos zu verbinden. Dieses Modell ermöglicht es kleinen Unternehmen und Unternehmern, zu wachsen und mit größeren Marken zu konkurrieren, indem sie leichter neue Kunden finden. Aber selbst wenn Unternehmen Anzeigen auf Facebook kaufen, wissen sie nicht, wer Sie sind. Wir liefern Werbetreibenden Berichte über die Arten von Personen, die ihre Anzeigen sehen, und über die Leistung ihrer Anzeigen. Wir geben jedoch keine Informationen weiter, die Sie persönlich identifizieren, es sei denn, Sie geben uns die Erlaubnis. Wir verkaufen Ihre Daten an niemanden. Sie können die Ihnen zugewiesenen „Interessen“ immer in Ihren Anzeigeneinstellungen sehen und sie gegebenenfalls entfernen.
3 ALGORITHMUS
Der Facebook-Algorithmus ist nicht „böse“. Er hält die Plattform relevant und nützlich.
Facebook verwendet Algorithmen, um die Benutzerfreundlichkeit unserer Apps zu verbessern – genau wie jede Dating-App, Amazon, Uber und unzählige andere Apps für Verbraucher, mit denen Menschen täglich interagieren. Dazu gehört auch Netflix, das mithilfe eines Algorithmus bestimmt, wer seiner Meinung nach den Film „The Social Dilemma“ sehen soll, und ihn dann empfiehlt. Dies geschieht mit jedem Inhalt, der im Dienst angezeigt wird. Algorithmen und maschinelles Lernen verbessern unsere Dienstleistungen. Bei Facebook verwenden wir sie beispielsweise, um Inhalte anzuzeigen, die für das, was die Menschen interessiert, relevanter sind, unabhängig davon, ob es sich um Beiträge von Freunden oder Anzeigen handelt. Die Darstellung von Algorithmen als „böse“ mag ein gutes Futter für Verschwörungsdokumentationen sein, aber die Realität ist viel weniger unterhaltsam.
(Wie der News Feed von Facebook funktioniert)
4 DATEN
Facebook hat unternehmensweit Verbesserungen vorgenommen, um die Privatsphäre der Menschen zu schützen.
Im letzten Jahr haben wir im Rahmen unserer Vereinbarung mit der Federal Trade Commission wesentliche Änderungen vorgenommen. Wir haben neue Sicherheitsvorkehrungen für die Verwendung von Daten getroffen, den Menschen neue Kontrollen für die Verwaltung ihrer Daten gegeben und jetzt Tausende von Menschen an datenschutzbezogenen Projekten arbeiten lassen, damit wir unsere Datenschutzverpflichtungen weiterhin erfüllen und die Informationen der Menschen schützen können.
Ungeachtet dessen, was der Film suggeriert, haben wir Richtlinien, die es Unternehmen verbieten, uns vertrauliche Daten über Personen, einschließlich Gesundheitsinformationen oder Sozialversicherungsnummern der Benutzer, über Geschäftstools wie Facebook Pixel und SDK zu senden. Wir wollen diese Daten nicht und ergreifen Maßnahmen, um zu verhindern, dass potenziell sensible Daten, die von Unternehmen gesendet werden, in unseren Systemen verwendet werden. Wir haben die Aufsichtsbehörden auf der ganzen Welt öffentlich aufgefordert, sich uns anzuschließen, um die Regeln des Internets in Einklang zu bringen und wir unterstützen eine Regulierung, die der gesamten Branche als Leitfaden dienen kann. Dies ist eine Aufforderung, die wir an die Staats- und Regierungschefs gerichtet haben, und wir laufen nicht davon weg.
5 POLARISIERUNG
Wir unternehmen Schritte, um Inhalte zu reduzieren, die die Polarisation fördern könnten.
Die Wahrheit ist, dass Polarisierung und Populismus schon lange vor der Schaffung von Facebook und anderen Online-Plattformen bestanden haben und wir bewusst Schritte innerhalb des Produkts unternehmen, um die Verbreitung dieser Art von Inhalten zu verwalten und zu minimieren. Die überwiegende Mehrheit der Inhalte, die Menschen auf Facebook sehen, ist weder polarisierend noch politisch – es handelt sich um alltägliche Inhalte von Freunden und Familienmitgliedern. Während einige Posts aus polarisierenderen Nachrichtenquellen viele Interaktionen, Likes oder Kommentare erhalten, ist dieser Inhalt ein winziger Prozentsatz dessen, was die meisten Leute auf Facebook sehen. Nachrichten von diesen Seiten stellen auch nicht die meistgesehenen Nachrichten auf Facebook dar. Wir reduzieren die Menge an Inhalten, die die Polarisierung auf unserer Plattform fördern könnten, einschließlich Links zu Clickbait-Überschriften oder Fehlinformationen. Wir führen unsere eigenen Forschungen durch – und finanzieren direkt die von unabhängigen Wissenschaftlern -, um besser zu verstehen, wie unsere Produkte zur Polarisierung beitragen können, damit wir dies weiterhin verantwortungsbewusst handhaben können.
6 WAHLEN
Facebook hat Investitionen getätigt, um die Integrität der Wahlen zu schützen.
Wir haben anerkannt, dass wir 2016 Fehler gemacht haben. Doch der Film blendet aus, was wir seit 2016 getan haben, um eine starke Abwehr aufzubauen, um zu verhindern, dass Menschen Facebook nutzen, um sich in Wahlen einzumischen. Wir haben unsere Sicherheit verbessert und verfügen nun über einige der fortschrittlichsten Teams und Systeme der Welt, um Angriffe zu verhindern. Wir haben in den letzten Jahren weltweit mehr als 100 Netzwerke entfernt, die sich auf koordiniertes unechtes Verhalten einlassen, auch vor anderen großen globalen Wahlen seit 2016.
Um Werbeanzeigen – insbesondere politische und soziale – transparenter zu machen, haben wir 2018 eine Anzeigenbibliothek, mit der alle auf Facebook geschalteten Anzeigen für andere sichtbar gemacht werden, auch wenn Sie die Anzeige nicht in Ihrem eigenen Feed gesehen haben. Und wir kennzeichnen und archivieren sieben Jahre lang alle sozialen Themen und Wahlanzeigen in dieser Bibliothek. Wir haben ausserdem Richtlinien, die die Beeinträchtigung von Wählern verbieten, und in den USA haben wir allein zwischen März und Mai dieses Jahres mehr als 100.000 Inhalte von Facebook und Instagram entfernt, weil sie gegen unsere Richtlinien zur Beeinflussung von Wählern verstossen haben.
Darüber hinaus haben wir weitere Sicherheitsmaßnahmen eingeleitet die Integrität der US-Wahlen durch Förderung der Stimmabgabe, Verbindung der Menschen mit verlässlichen Wahlinformationen und Aktualisierung unserer Richtlinien, um den Versuchen eines Kandidaten oder einer Kampagne entgegenzuwirken, den Sieg vorzeitig zu erklären oder die Wahl zu delegitimieren, indem offizielle Ergebnisse in Frage gestellt werden.
7 FALSCHE INFORMATIONEN
Wir bekämpfen gefälschte Nachrichten, Fehlinformationen und schädliche Inhalte mithilfe eines globalen Netzwerks von Partnern, die Fakten überprüfen.
Die Idee, dass wir es zulassen, dass Fehlinformationen auf unserer Plattform eitern oder dass wir irgendwie von diesen Inhalten profitieren, ist falsch. Facebook ist die einzige große Social-Media-Plattform mit einem globalen Netzwerk von mehr als 70 Partnern zur Überprüfung von Fakten, die Inhalte in verschiedenen Sprachen auf der ganzen Welt überprüfen. Inhalte, die von unseren Partnern zur Überprüfung von Fakten als falsch identifiziert wurden, werden im Newsfeed gekennzeichnet und herabgestuft. Fehlinformationen, die möglicherweise zu bevorstehender Gewalt, körperlichem Schaden und Unterdrückung von Wählern beitragen können, werden sofort beseitigt, einschließlich Fehlinformationen über COVID-19.
Wir wollen keine Hassreden auf unserer Plattform und arbeiten daran, sie zu entfernen, trotz der Aussagen des Films. Obwohl auch nur ein Beitrag zu viele ist, haben wir diesbezüglich erhebliche Verbesserungen vorgenommen. Wir haben im zweiten Quartal 2020 über 22 Millionen Hassreden entfernt, von denen wir über 94% gefunden haben, bevor jemand sie gemeldet hat – ein Anstieg gegenüber dem Vorquartal, als wir 9,6 Millionen Beiträge entfernt haben, von denen wir über 88% vor einigen gefunden haben.
Wir wissen, dass unsere Systeme nicht perfekt sind und es Dinge gibt, die wir vermissen. Aber wir stehen nicht untätig daneben und lassen zu, dass sich Fehlinformationen oder Hassreden auf Facebook verbreiten.
HIER können Sie das Originaldokument bei Facebook lesen.