Kein Bock auf „AI Slop“: PS3-Emulator RPCS3 zieht die Reißleine
Kurz & Knapp
Das RPCS3-Team kämpft gegen eine Flut minderwertiger, KI-generierter Code-Beiträge.
Neue Regel: KI-Code muss offengelegt werden, sonst droht ein permanenter Ban.
Die Entwickler kritisieren Coder, die Code einreichen, den sie selbst nicht verstehen oder testen.
Die Ansage auf Social Media war unmissverständlich und erfrischend direkt.
Wenn der Pull Request zur Zumutung wird
RPCS3 ist als Open-Source-Projekt auf die Beiträge der Community angewiesen, um sich weiterzuentwickeln. Doch der einfache Zugang zu KI-Code-Generatoren hat eine unerwünschte Nebenwirkung: Immer mehr Leute reichen Code-Schnipsel ein, die offensichtlich von einer KI stammen, aber weder funktionieren noch von den Einreichenden verstanden werden.
Die Entwickler nennen dieses Phänomen treffend „AI Slop“ – KI-Matsch. Dieser ungetestete und oft fehlerhafte Code verursacht für die ehrenamtlichen Maintainer des Projekts einen massiven Mehraufwand bei der Überprüfung.
Jetzt hat das Team die Notbremse gezogen. In einer öffentlichen Ansage auf X machten sie ihrem Ärger Luft und kündigten neue, strengere Regeln für Beiträge an.
Bitte hört auf, uns Pull Requests mit KI-Code-Matsch für RPCS3 zu schicken. Wir werden anfangen, diejenigen zu bannen, die dies tun, ohne es offenzulegen.
Kein Totalverbot, aber klare Regeln
Die neue Richtlinie ist kein komplettes Verbot von KI-Tools. Wer KI zur Code-Erstellung nutzt, muss dies im Pull Request jedoch klar kennzeichnen. Es muss offengelegt werden, welche Teile des Codes KI-generiert sind und welche manuellen Tests oder Überprüfungen stattgefunden haben.
Wer sich nicht an diese Transparenz-Regel hält, fliegt raus. Damit wollen die Entwickler sicherstellen, dass nur Beiträge eingehen, deren Autoren auch wirklich verstehen, was sie da tun.
Die Befürchtung, man könnte versehentlich handgeschriebenen Code für KI-Matsch halten, wischen die Entwickler vom Tisch. Die Qualität sei oft so schlecht, dass die Herkunft offensichtlich ist. „Man kann die Art von Scheiße, die wir als KI-Matsch gesehen haben, unmöglich von Hand schreiben“, so ein Kommentar des Teams.
Die harsche, aber ehrliche Kommunikation endet mit einem Appell, der es in sich hat und sich direkt an die Verursacher richtet.
Lernt, wie man debuggt und codet, und hinterlasst der Menschheit etwas Nützliches, wenn ihr weg seid, anstatt Matsch zu verbreiten.
Dieses Problem ist kein Einzelfall. Auch andere Open-Source-Projekte wie die Godot Engine kämpfen mit einer ähnlichen Flut an unbrauchbaren KI-Beiträgen von Leuten, die auf den schnellen Fame aus sind, ohne die nötige Arbeit zu investieren.
Quelle(n)