Die neuen Moderationsregeln, die Meta im Januar für Instagram und Facebook angekündigt hat, könnten zu Menschenrechtsverletzungen führen. Die eigene Aufsichtsbehörde von Meta fordert das Unternehmen öffentlich auf, die Auswirkungen der neuen Regeln zu untersuchen.
Das Meta Oversight Board sagt, dass die neuen Regeln übereilt veröffentlicht wurden, obwohl sie noch lange nicht überall in Kraft getreten sind.
„Dies stand im Widerspruch zum üblichen Verfahren, ohne dass öffentlich bekannt gegeben wurde, ob das Unternehmen zuvor eine Due-Diligence-Prüfung der Menschenrechte durchgeführt hat.“
Das Oversight Board befürchtet, dass die gelockerten Regeln für die Entfernung von Beiträgen, die Hass verbreiten, zu einer Zunahme solcher Beiträge führen könnten, und ist auch besorgt über die weitgehende Automatisierung von Moderationsentscheidungen. „Dabei muss auch geprüft werden, ob die Verringerung der Abhängigkeit von der automatisierten Erkennung von Verstößen gegen Richtlinien weltweit ungleiche Auswirkungen haben kann, insbesondere in Ländern, die mit aktuellen oder jüngsten Krisen wie bewaffneten Konflikten konfrontiert sind.“
Meta kündigte im Januar an, mehr hasserfüllte Inhalte zuzulassen. Die Bedingungen heben viele Regeln auf, die Frauen und Minderheiten vor hasserfüllten Beiträgen schützen sollten. So dürfen Nutzer nun wieder sagen, dass Frauen nicht zum Militär dürfen und dass Transgender psychisch krank sind. Der Oversight Board weist in diesem Zusammenhang unter anderem darauf hin, dass die Richtlinie negative Auswirkungen auf „LGBTQIA+-Personen, darunter Minderjährige, und Einwanderer“ haben kann. Inhalte, die zu Gewalt aufrufen, sind weiterhin verboten.