Quick Links

AI
39 Beiträge im Community Space

RPCS3-Entwickler haben genug: Harte Ansage an KI-Coder und ihren „Code-Müll“

Von TYay0 in AI ai
vor 57 Minuten (aktualisiert vor 5 Stunden)
Dem Team hinter dem populären PS3-Emulator RPCS3 ist der Kragen geplatzt. Sie haben die Nase voll von minderwertigem, KI-generiertem Code und setzen den verantwortlichen „Vibe Codern“ nun klare Grenzen – inklusive Ban-Androhung.
RPCS3-Entwickler haben genug: Harte Ansage an KI-Coder und ihren „Code-Müll“

Kein Bock auf „AI Slop“: PS3-Emulator RPCS3 zieht die Reißleine

Kurz & Knapp

  • Das RPCS3-Team kämpft gegen eine Flut minderwertiger, KI-generierter Code-Beiträge.

  • Neue Regel: KI-Code muss offengelegt werden, sonst droht ein permanenter Ban.

  • Die Entwickler kritisieren Coder, die Code einreichen, den sie selbst nicht verstehen oder testen.

  • Die Ansage auf Social Media war unmissverständlich und erfrischend direkt.

Wenn der Pull Request zur Zumutung wird

RPCS3 ist als Open-Source-Projekt auf die Beiträge der Community angewiesen, um sich weiterzuentwickeln. Doch der einfache Zugang zu KI-Code-Generatoren hat eine unerwünschte Nebenwirkung: Immer mehr Leute reichen Code-Schnipsel ein, die offensichtlich von einer KI stammen, aber weder funktionieren noch von den Einreichenden verstanden werden.

Die Entwickler nennen dieses Phänomen treffend „AI Slop“ – KI-Matsch. Dieser ungetestete und oft fehlerhafte Code verursacht für die ehrenamtlichen Maintainer des Projekts einen massiven Mehraufwand bei der Überprüfung.

Jetzt hat das Team die Notbremse gezogen. In einer öffentlichen Ansage auf X machten sie ihrem Ärger Luft und kündigten neue, strengere Regeln für Beiträge an.

Bitte hört auf, uns Pull Requests mit KI-Code-Matsch für RPCS3 zu schicken. Wir werden anfangen, diejenigen zu bannen, die dies tun, ohne es offenzulegen.

Kein Totalverbot, aber klare Regeln

Die neue Richtlinie ist kein komplettes Verbot von KI-Tools. Wer KI zur Code-Erstellung nutzt, muss dies im Pull Request jedoch klar kennzeichnen. Es muss offengelegt werden, welche Teile des Codes KI-generiert sind und welche manuellen Tests oder Überprüfungen stattgefunden haben.

Wer sich nicht an diese Transparenz-Regel hält, fliegt raus. Damit wollen die Entwickler sicherstellen, dass nur Beiträge eingehen, deren Autoren auch wirklich verstehen, was sie da tun.

Die Befürchtung, man könnte versehentlich handgeschriebenen Code für KI-Matsch halten, wischen die Entwickler vom Tisch. Die Qualität sei oft so schlecht, dass die Herkunft offensichtlich ist. „Man kann die Art von Scheiße, die wir als KI-Matsch gesehen haben, unmöglich von Hand schreiben“, so ein Kommentar des Teams.

Die harsche, aber ehrliche Kommunikation endet mit einem Appell, der es in sich hat und sich direkt an die Verursacher richtet.

Lernt, wie man debuggt und codet, und hinterlasst der Menschheit etwas Nützliches, wenn ihr weg seid, anstatt Matsch zu verbreiten.

Dieses Problem ist kein Einzelfall. Auch andere Open-Source-Projekte wie die Godot Engine kämpfen mit einer ähnlichen Flut an unbrauchbaren KI-Beiträgen von Leuten, die auf den schnellen Fame aus sind, ohne die nötige Arbeit zu investieren.
Quelle(n)

Beitrag erstellt in AI

Echte Infos. Keine Klickschlachten. Deine Gaming-Quelle: BFcom.

Neu hier?

Macht nichts. Melde dich an und diskutiere mit!

Konto erstellen

Willkommen im zentralen Hub für alles rund um Künstliche Intelligenz. Egal, ob du die neuesten Funktionen von Gemini und Claude für den Alltag nutzt, mit Bilderzeugungs-Tools kreativ wirst oder mithilfe von KI deinen Code optimierst – hier bist du richtig. Dieser Space dient dem Austausch über praktische Anwendungsfälle, die besten Prompts, die aktuellsten News aus der Tech-Welt und die ethischen Fragen, die uns alle bewegen.

© 2009 - 2026 BFcom - Communities für Gaming, Tech & mehr - BFcom