KI entscheidet mit, wer was sehen darf
Nach dem Wirbel um Verifikations-Anbieter und Datenschutz gibt Discord nun Einblicke in die technische Seite der kommenden Jugendschutz-Maßnahmen.
Die Content-Filter werden auf einer Kombination aus automatisierter Erkennung, KI-Validierung und menschlicher Überprüfung basieren.
Kurz & Knapp
- Discord wird Server nicht automatisch basierend auf Spielebewertungen (USK/PEGI) altersbeschränken
- Content-Filter nutzen „automated detection with AI validation and human review"
- Game-Studios befürchten False Positives, die ihre Community-Server einschränken könnten
- Echte Gewalt, Gore und Tierquälerei sind bereits nach aktueller Policy verboten
- Das System ist Teil des „Teen Safety Assist" und „safety-by-default"-Ansatzes
Keine automatische Alterseinstufung nach Spielebewertung
Eine der drängendsten Fragen für Game-Studios: Werden Server zu Spielen mit USK-18-Freigabe automatisch altersbeschränkt? Die Antwort von Discord gegenüber GamesMarket lautet: Nein.
„We do not automatically age-gate servers or content related to a specific game based on its rating alone."
Das klingt erstmal beruhigend. Ein Server zu einem Shooter wie Call of Duty oder einem Horror-Titel wie Resident Evil wird also nicht allein wegen der Spielebewertung gesperrt. Die Einschränkung liegt im Detail: Die Inhalte auf dem Server werden trotzdem geprüft.
So funktioniert die Filterung
Discords Content-Filter sind Teil des sogenannten „Teen Safety Assist" – dem Jugendschutz-Framework, das ab März greifen soll. Laut dem Unternehmensvertreter werden die Filter „mit einer Kombination aus automatisierter Erkennung, KI-Validierung und menschlicher Überprüfung" angewendet, um Server proaktiv zu identifizieren und gegebenenfalls altersbeschränkt einzustufen.
Übersetzt: Eine KI scannt Inhalte, bewertet sie und Menschen prüfen die Ergebnisse – zumindest teilweise. Wie genau diese Arbeitsteilung aussieht, bleibt unklar.
Die bestehende Policy zu Gewaltdarstellungen gilt weiterhin: Echte Gewalt, Gore und Tierquälerei sind auf Discord generell verboten, unabhängig vom Alter der Nutzer.
Das Problem mit False Positives
Für Game-Studios ergibt sich ein konkretes Risiko: Was passiert, wenn die KI Screenshots aus einem Spiel fälschlicherweise als problematisch einstuft?
Ein Server zu einem M-rated Game könnte plötzlich für nicht-verifizierte Nutzer gesperrt werden – nicht wegen der Spielebewertung, sondern weil ein Screenshot oder eine Fanart den automatischen Filter ausgelöst hat. Für Studios, die Discord als Community-Plattform nutzen, wäre das ein erhebliches Problem.
Die Frage, wo die Grenze bei Cartoon-Gewalt oder Alkohol-Referenzen in Screenshots liegt, bleibt unbeantwortet.
False Positives sind bei KI-gestützter Content-Moderation kein theoretisches Problem. YouTube, Twitch und andere Plattformen kämpfen seit Jahren damit. Die Kombination aus automatisierter Erkennung und menschlicher Überprüfung soll das abfedern – wie effektiv das bei Discords Skalierung funktioniert, wird sich zeigen.
Der größere Kontext
Die neuen Details reihen sich in eine Woche voller Discord-Kontroversen ein:
- Altersverifikation ab März: Alle Accounts werden standardmäßig als Teenager behandelt
- Persona-Test beendet: Nach Berichten über die Verbindung zu Palantir-Gründer Peter Thiel hat Discord den Test mit dem Verifikations-Anbieter eingestellt
- TeamSpeak profitiert: Der Konkurrent meldet Kapazitätsprobleme durch Nutzerzuwachs
Discord versucht offensichtlich, die Wogen zu glätten und Details nachzuliefern. Die grundsätzliche Skepsis in der Community dürfte das aber kaum beseitigen – besonders wenn KI-Systeme über den Zugang zu Servern mitentscheiden.
Roblox zieht nach
Discord steht mit seinem Ansatz nicht allein. Roblox kündigte im November ein ähnliches System an, bei dem Gesichtserkennung für den Zugang zu Chat-Funktionen erforderlich wird. CEO David Baszucki hatte besorgte Eltern zuvor noch darauf verwiesen, ihre Kinder einfach nicht auf Roblox zu lassen.
Die Frage, die sich stellt: Wenn KI-gestützte Altersverifikation und Content-Filterung zum Standard werden, wie viel Kontrolle haben Nutzer noch über ihre Online-Erfahrung? Und wie viele False Positives sind akzeptabel, bevor das System mehr Probleme schafft als es löst?
Quelle: gamesmarket