Meta: Vorwürfe gegen Inhaltskontrolle passen nicht zu Geschäftsinteressen

Published by hyph on


Meta, vormals Facebook, steht weiterhin in der Kritik, dass der Konzern Profit über das Wohlergehen seiner Kundinnen und Kunden stellt. Erneut wehrt sich das Unternehmen in einem Blogeintrag gegen diese Vorwürfe. Dieses Mal argumentiert Monika Bickert, Vizepräsidentin für Inhaltsrichtlinien, dass Meta aus eigenem Interesse heraus keine Inhalte auf seinen Plattformen unterstütze, die Menschen oder auch Werbetreibende abschrecken könnten. Neben dem Aufbau eines neuen Verteidigungsarguments weist Bickert auf die Notwendigkeit von klaren Regeln von sozialen Netzwerken hin und lobt dabei die Idee des europäischen Digital Services Act.

In einem längeren Blogpost für ihren Arbeitgeber versucht Bickert deutlich zu machen, wie viel der Konzern Meta mittlerweile in die Inhaltskontrolle seiner Anwendungen investiere. Sie erklärt unter anderem, dass der Konzern für die Sicherheit auf seinen Plattformen allein in diesem Jahr mehr als 5 Milliarden US-Dollar ausgegeben hätte. Zudem seien mehr als 40.000 Menschen nur damit beauftragt, auf den Plattformen für Ordnung zu sorgen. Dadurch habe man in den vergangenen drei Quartalen den Anteil von Hassrede, den Nutzerinnen und Nutzer sehen, um die Hälfte dezimieren können. Hassrede würde nur noch 0,05 Prozent aller Inhaltesichtungen betreffen – das mache etwa fünf Sichtungen pro 10.000 aus.

Auch in der Erkennung von Hassrede sei man besser geworden. 97 Prozent von Hassrede habe man entfernen können, bevor diese überhaupt gemeldet wurde. Vor einigen Jahren soll dieser Wert noch 23 Prozent betragen haben.

Bickert unterstreicht, dass es nicht im Interesse des Unternehmens liege, Menschen mit Inhalten zu konfrontieren, die sie aufregen oder verletzen könnten, gibt aber zu, dass eine längere Verweildauer für Meta wünschenswert ist. Sie stellt in ihrem Beitrag in Zweifel, dass Facebook besonders kontroverse Einträge für diesen Effekt nutze und will hier auch keine eindeutigen wissenschaftlichen Einordnungen der hauseigenen Algorithmen kennen. Dass der Konzern nicht immer ausreichend auf Konflikte, Gewalt- oder Hasspostings reagiert – auch nach internen Warnungen – zeigten allerdings zuletzt Fälle aus Indien.

Als ein Mittel, welches die Inhalteauswahl durch Algorithmen unterlaufe, hätte Meta laut Bickert schon vor Jahren die Option eines chronologischen Newsfeed freigegeben. Nutzerinnen und Nutzer könnten also darüber bestimmen, ob ein Algorithmus den News Feed zusammenstellt oder nicht.

Trotz aller Gegenwehr lässt Bickert durchblicken, dass Meta Probleme hat und diese durch einheitliche Regeln durch Gesetzgeber gemildert werden könnten. Sie setzt ihre Hoffnungen unter anderem auf den europäischen Digital Services Act. Dieser könnte dabei helfen, “europäische Werte wie freie Meinungsäußerung, Privatsphäre, Transparenz und die Rechte von Individuen” in das alltägliche Geschehen im Internet einzubetten.

Bickert reagierte mit ihrem Blogpost insbesondere auf die Vorwürfe, die nach den Enthüllungen durch Whistleblowerin Frances Haugen bekannt wurden. Haugen unterstrich mehrfach, dass Meta von schädlichen Auswirkungen seiner Apps wisse, diese aber aufgrund von Profitinteressen in Kauf nehme.

Dass ein Teil von Hassrede und Desinformationskampagnen mittlerweile eher in Messenger-Kanälen oder geschlossene Gruppen abgewandert ist, könnte begründen, weshalb Bickert das Hauptproblem in ihrer Betrachtung nicht mehr bei Facebook sehen will.

Messenger und Facebook-Gruppen gehören allerdings weiterhin zum Verantwortungsbereich von Meta. Wechselwirkungen und Anknüpfungspunkte – auch zwischen den Plattformen – sind von Meta gewünscht. Die Probleme dürften sich also innerhalb des Meta-Kosmos nur etwas verschoben haben.


(kbe)

Zur Startseite

Categories: Uncategorized

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published.