Maandag 4 mei 2026 — Editie #4

RainbowNews

The global platform for LGBTQ+ news, analysis and stories. Independent and inclusive.

NederlandsUKGlobalDeutschFrançaisEspañolBrasilAsia-PacificLatinoamérica
redactie

Meta muss lesbische Inhalte nach Schiedsspruch wiederherstellen

Metas Oversight Board entschied, dass das Unternehmen lesbische Instagram-Posts zu Unrecht löschte. Was bedeutet das für die Rechte der Inhaltsmoderation?

RainbowNews Redactie6. Mai 2026 — International3 Min. Lesezeit
···

Foto: RainbowNews Redaktion

Metas Oversight Board entschied, dass das Unternehmen lesbische Inhalte zu Unrecht von Instagram löschte. Das Board sagte, die Löschungen verletzten Metas eigene Regeln. Meta muss die Posts nun wiederherstellen und seine Moderationssysteme überprüfen. Die Entscheidung wurde Ende April 2026 veröffentlicht.

Das Oversight Board ist eine unabhängige Organisation. Es überprüft schwierige Inhalts-Entscheidungen von Meta. Seine Urteile sind für einzelne Posts bindend. Politische Empfehlungen sind nicht bindend, aber Meta antwortet normalerweise innerhalb von 60 Tagen.

Worum ging es in dem Fall

Der Fall betraf mehrere Instagram-Posts von lesbischen Nutzerinnen. Die Posts verwendeten Wörter wie Dyke und lesbisch positiv. Metas automatische Systeme kennzeichneten den Inhalt als Hassrede. Menschliche Moderatoren bestätigten dann die Löschungen.

Nutzerinnen legten Beschwerde ein. Sie sagten, die Wörter seien Selbstbeschreibungen, keine Beleidigungen. Das Oversight Board stimmte zu. Laut Urteil erkannte Meta angeeignete Sprache nicht. Angeeignete Sprache ist, wenn eine Gruppe ein ehemaliges Schimpfwort positiv nutzt.

Das Board schrieb, die Löschungen beschränkten die Meinungsfreiheit. Es sagte auch, die Moderation schadete der Sichtbarkeit lesbischer Nutzerinnen. Metas eigene Richtlinie erlaubt angeeignete Schimpfwörter, wenn der Sprecher der Gruppe angehört.

Hintergrund: wie Inhaltsmoderation funktioniert

Meta nutzt automatische Tools und menschliche Prüfer. Automatische Systeme prüfen täglich Milliarden von Posts. Sie suchen nach Wörtern und Bildern, die Regeln verletzen könnten. Gekennzeichnete Posts gehen an Moderatoren oder werden direkt gelöscht.

Das System hat bekannte Probleme. Automatische Tools übersehen oft den Kontext. Ein Wort kann in einem Post hasserfüllt und in einem anderen unterstützend sein. LGBTQ+-Gruppen beklagen das seit Jahren. Sie sagen, ihre Inhalte werden häufiger gelöscht.

2021 berichtete die Menschenrechtsgruppe GLAAD, dass LGBTQ+-Posts häufiger entfernt wurden. Meta sagte, es arbeite am Problem. Mehrere Forschungsberichte zeigen seitdem, dass das Problem anhält.

Was das Urteil praktisch bedeutet

Meta muss die konkreten Posts wiederherstellen. Das Unternehmen muss auch erklären, was es ändert. Das Oversight Board forderte Meta auf:

  • Erkennung angeeigneter Sprache verbessern
  • Moderatoren zu LGBTQ+-Kontext schulen
  • Transparenter über Löschungsgründe berichten
  • Nutzerinnen klarere Beschwerdewege geben

Die Empfehlungen des Boards sind nicht rechtlich bindend. Aber Meta hat sich zur öffentlichen Antwort verpflichtet. Bei früheren Fällen akzeptierte Meta meist die Politikempfehlungen.

Rechtsrahmen in Europa

Das Urteil kommt zu einem wichtigen Zeitpunkt. Der Digital Services Act der EU ist jetzt vollständig aktiv. Der DSA verlangt von großen Plattformen, Inhalte fair zu behandeln. Plattformen müssen Löschungen erklären. Nutzer müssen ein klares Beschwerdeverfahren haben.

Artikel 17 des DSA verlangt, dass Nutzer einen Grund erhalten, wenn Inhalte gelöscht werden. Artikel 20 verlangt ein internes Beschwerdeverfahren. Artikel 21 gibt Nutzern das Recht auf externe Streitbeilegung.

Die Europäische Kommission kann Plattformen bis zu 6 Prozent des globalen Umsatzes für schwere Verstöße mit Geldstrafen belegen. Meta unterliegt direkt der EU-Aufsicht.

Reaktionen von beiden Seiten

LGBTQ+-Gruppen begrüßten das Urteil. ILGA-Europe sagte, die Entscheidung zeigt, dass automatische Moderation oft fehlschlägt. Die Gruppe fordert klarere Regeln auf allen Plattformen. GLAAD sagte, Meta muss schneller handeln.

Meta akzeptiert das Urteil zu den einzelnen Posts. Ein Sprecher sagte, das Unternehmen werde die Empfehlungen prüfen. Meta merkte an, dass es Millionen Posts wöchentlich löscht. Das Unternehmen sagte, Fehler können in diesem Umfang vorkommen.

Einige Meinungsfreiheits-Gruppen kommentierten auch. Sie sagten, das Urteil zeigt die Risiken strikter Moderationsregeln. Sie wollen, dass Plattformen weniger, nicht mehr Inhalte löschen. Andere Gruppen sagen, Meta tut immer noch zu wenig gegen echte Hassrede.

Was Nutzer tun können

Nutzer, die glauben, ihr Inhalt wurde zu Unrecht gelöscht, haben mehrere Möglichkeiten. Der erste Schritt ist der Beschwerde-Button in der App. Meta muss innerhalb einer bestimmten Zeit antworten.

Wenn die Beschwerde fehlschlägt, können EU-Nutzer an eine zertifizierte außergerichtliche Stelle gehen. Diese Stellen sind auf der Website der Europäischen Kommission aufgelistet. Der Service ist für Nutzer kostenlos oder günstig. Entscheidungen sind nicht bindend, aber wiegen schwer.

Nutzer können sich auch bei ihrem nationalen Koordinator für digitale Dienste beschweren. In den Niederlanden ist das die Behörde für Verbraucher und Märkte (ACM). In Deutschland ist es die Bundesnetzagentur.

Weiterer Kontext

Der Fall ist einer von mehreren über LGBTQ+-Inhalte online. Früher dieses Jahr entschied das Oversight Board über Transgender-Posts. Das Board fand auch hier Metas Regeln unklar. TikTok und YouTube erhalten ähnliche Beschwerden.

Forscher der Universität Amsterdam untersuchten 2024 10.000 LGBTQ+-Posts. Sie fanden, dass 14 Prozent zu Unrecht gelöscht oder verborgen waren. Die gleiche Studie zeigte niedrigere Fehlerquoten bei nicht-LGBTQ+-Inhalten.

Ausblick

Meta hat 60 Tage, um auf die Politikempfehlungen zu antworten. Das Oversight Board wird diese Antwort veröffentlichen. Die Europäische Kommission beobachtet auch den Fall. Sie kann die Ergebnisse in ihren eigenen DSA-Überprüfungen nutzen.

Für jetzt setzt das Urteil ein klares Zeichen. Plattformen müssen den Kontext berücksichtigen. Angeeignete Sprache ist nicht dasselbe wie Hassrede. Wie gut Meta das anwendet, wird sich in den kommenden Monaten zeigen.

RR

RainbowNews Redactie

Redakteur

Teil des RainbowNews-Redaktionsteams.

Meer van deze auteur →

Mehr in Redactie

    Meta muss lesbische Inhalte nach Schiedsspruch wiederherstellen