Quick Links
11 Beiträge im Community Space

Discord setzt bei Content-Filterung auf KI und menschliche Prüfer – Studios in Sorge

Von TYay0 in discord news discord
vor 10 Stunden (aktualisiert vor 10 Stunden)
Neue Details zur Altersverifikation: Discord erklärt, wie die Content-Filter ab März funktionieren sollen. Game-Studios befürchten, dass ihre Server fälschlicherweise altersbeschränkt werden könnten.
Discord setzt bei Content-Filterung auf KI und menschliche Prüfer – Studios in Sorge

KI entscheidet mit, wer was sehen darf

Nach dem Wirbel um Verifikations-Anbieter und Datenschutz gibt Discord nun Einblicke in die technische Seite der kommenden Jugendschutz-Maßnahmen. 

Die Content-Filter werden auf einer Kombination aus automatisierter Erkennung, KI-Validierung und menschlicher Überprüfung basieren.

Kurz & Knapp

  • Discord wird Server nicht automatisch basierend auf Spielebewertungen (USK/PEGI) altersbeschränken
  • Content-Filter nutzen „automated detection with AI validation and human review"
  • Game-Studios befürchten False Positives, die ihre Community-Server einschränken könnten
  • Echte Gewalt, Gore und Tierquälerei sind bereits nach aktueller Policy verboten
  • Das System ist Teil des „Teen Safety Assist" und „safety-by-default"-Ansatzes

Keine automatische Alterseinstufung nach Spielebewertung

Eine der drängendsten Fragen für Game-Studios: Werden Server zu Spielen mit USK-18-Freigabe automatisch altersbeschränkt? Die Antwort von Discord gegenüber GamesMarket lautet: Nein.

 „We do not automatically age-gate servers or content related to a specific game based on its rating alone."

Das klingt erstmal beruhigend. Ein Server zu einem Shooter wie Call of Duty oder einem Horror-Titel wie Resident Evil wird also nicht allein wegen der Spielebewertung gesperrt. Die Einschränkung liegt im Detail: Die Inhalte auf dem Server werden trotzdem geprüft.

So funktioniert die Filterung

Discords Content-Filter sind Teil des sogenannten „Teen Safety Assist" – dem Jugendschutz-Framework, das ab März greifen soll. Laut dem Unternehmensvertreter werden die Filter „mit einer Kombination aus automatisierter Erkennung, KI-Validierung und menschlicher Überprüfung" angewendet, um Server proaktiv zu identifizieren und gegebenenfalls altersbeschränkt einzustufen.

 

Übersetzt: Eine KI scannt Inhalte, bewertet sie und Menschen prüfen die Ergebnisse – zumindest teilweise. Wie genau diese Arbeitsteilung aussieht, bleibt unklar.

Die bestehende Policy zu Gewaltdarstellungen gilt weiterhin: Echte Gewalt, Gore und Tierquälerei sind auf Discord generell verboten, unabhängig vom Alter der Nutzer.

Das Problem mit False Positives

Für Game-Studios ergibt sich ein konkretes Risiko: Was passiert, wenn die KI Screenshots aus einem Spiel fälschlicherweise als problematisch einstuft?

 

Ein Server zu einem M-rated Game könnte plötzlich für nicht-verifizierte Nutzer gesperrt werden – nicht wegen der Spielebewertung, sondern weil ein Screenshot oder eine Fanart den automatischen Filter ausgelöst hat. Für Studios, die Discord als Community-Plattform nutzen, wäre das ein erhebliches Problem.

Die Frage, wo die Grenze bei Cartoon-Gewalt oder Alkohol-Referenzen in Screenshots liegt, bleibt unbeantwortet. 

False Positives sind bei KI-gestützter Content-Moderation kein theoretisches Problem. YouTube, Twitch und andere Plattformen kämpfen seit Jahren damit. Die Kombination aus automatisierter Erkennung und menschlicher Überprüfung soll das abfedern – wie effektiv das bei Discords Skalierung funktioniert, wird sich zeigen.

Der größere Kontext

Die neuen Details reihen sich in eine Woche voller Discord-Kontroversen ein:

Discord versucht offensichtlich, die Wogen zu glätten und Details nachzuliefern. Die grundsätzliche Skepsis in der Community dürfte das aber kaum beseitigen – besonders wenn KI-Systeme über den Zugang zu Servern mitentscheiden.

Roblox zieht nach

Discord steht mit seinem Ansatz nicht allein. Roblox kündigte im November ein ähnliches System an, bei dem Gesichtserkennung für den Zugang zu Chat-Funktionen erforderlich wird. CEO David Baszucki hatte besorgte Eltern zuvor noch darauf verwiesen, ihre Kinder einfach nicht auf Roblox zu lassen.

 

Die Frage, die sich stellt: Wenn KI-gestützte Altersverifikation und Content-Filterung zum Standard werden, wie viel Kontrolle haben Nutzer noch über ihre Online-Erfahrung? Und wie viele False Positives sind akzeptabel, bevor das System mehr Probleme schafft als es löst?

 

Quelle: gamesmarket

Beitrag erstellt in discord

Echte Infos. Keine Klickschlachten. Deine Gaming-Quelle: BFcom.