Kurz & Knapp
- Crimson Desert enthält KI-generierte 2D-Assets – laut Pearl Abyss versehentlich im finalen Release verblieben
- Das Statement kam am 22. März und kassierte über 2,5 Millionen Views
- Der Launch war ohnehin kein ruhiger: Aktiencrash von fast 30 %, Kritik an den Controls, Metacritic 78
- Das Spiel verstösst gegen Valves Steam-Richtlinien zur KI-Offenlegung – Konsequenzen: bisher keine
- Battlefield 6, Black Ops 7 – andere AAA-Titel hatten dasselbe Problem. Das ist kein Versehen, das ist ein Muster
Pferde mit zu vielen Beinen
Stell dir vor, du läufst durch ein prachtvoll gestaltetes Herrenhaus in einem 133-Millionen-Dollar-Spiel. Die Wände hängen voller mittelalterlicher Gemälde. Du bleibst kurz stehen, schaust genauer hin – und plötzlich realisierst du, dass der Ritter auf dem Pferd sechs Beine hat. Dass der Krieger daneben kein erkennbares Gesicht mehr besitzt. Dass die Hand, die einen Beutel hält, drei Finger hat.
Willkommen in Oakenshield Manor. Willkommen in der nächsten AAA-KI-Kontroverse.
Kurz nach dem Launch von Crimson Desert begannen Spieler auf Reddit und Bluesky, die verdächtigen Wandgemälde zu dokumentieren. Die Community brauchte keine 48 Stunden, um eine stattliche Sammlung zusammenzutragen.
Und Pearl Abyss brauchte dann noch ein paar Tage, um am 22. März das Offensichtliche zuzugeben: Ja, einige 2D-Assets wurden in frühen Entwicklungsphasen mit KI-Tools erstellt. Nein, sie hätten nicht im finalen Spiel landen sollen. Man übernehme die volle Verantwortung, ein Audit laufe, Patches kämen.
2,5 Millionen Views auf das Statement. Die Sache ist durch. Oder?
"Wir haben's vergessen" – das neue Standardstatement der Branche
Hier ist das Ding: Pearl Abyss ist nicht das erste Studio, das mit exakt dieser Erklärung um die Ecke kommt. Sandfall Interactive sagte nach Expedition 33 nahezu dasselbe – KI-Assets als temporäre Platzhalter, die QA hat's verpennt, tut uns leid. Die Community beruhigte sich, das Spiel war gut genug, dass niemand lange sauer blieb.
Auch Battlefield 6 ist in diese Debatte geraten. Bei Black Ops 7 eskalierte es noch weiter: erst Community-Aufschrei wegen KI-Calling-Cards, dann US-Kongress, der Regeln gegen AI Slop fordert. Wenn Abgeordnete anfangen, Calling-Cards zu diskutieren, ist die Lage offiziell absurd.
Drei grosse Franchises. Drei ähnliche Muster. Das ist kein koordiniertes Versagen – das ist die Branche, die ein strukturelles Problem hat und hofft, dass die Community es für sie löst.
Das eigentliche Problem: KI-Slop, der zu ordentlich aussieht
Josh Sawyer – bekannt für Fallout: New Vegas und Pillars of Eternity – hat es auf Bluesky in einem Satz getroffen:
„Placeholder-Assets sollten so aussehen, dass absolut niemand sie mit dem finalen Asset verwechselt. Hot-Pink-Charaktere, der Kopf des CEOs auf jedem NPC. Wenn dein Temp-Asset passabel wirkt, bleibt es drin."
Genau das ist das Problem mit KI-generierten Konzept-Bildern. Ein echter Pink-Block schreit aus jedem Screenshot: Bitte ersetzen. Ein KI-Gemälde, das ungefähr nach mittelalterlicher Kunst aussieht, schreit gar nichts – bis ein Spieler mit zu viel Zeit und einem guten Auge anfängt, Finger zu zählen.
Das macht die "Es war ein Versehen"-Erklärung zwar glaubwürdig. Aber sie macht sie nicht weniger vermeidbar.
Steam sagt: Offenlegungspflicht. Valve macht: nichts.
Steam-Richtlinien zur KI-Offenlegung vs. Reality Check
| Anforderung | Crimson Desert |
|---|---|
| KI-Nutzung auf Store-Seite angeben | Nicht erfolgt |
| Disclosure vor Release | Nicht erfolgt |
| Konsequenzen durch Valve | Stand heute: keine |
Seit Anfang 2024 müssen Publisher auf Steam angeben, ob generative KI im Spiel steckt. Crimson Desert hat das nicht getan und verstösst damit formal gegen die Richtlinien. Die Wahrscheinlichkeit, dass Valve bei einem Titel mit zwei Millionen Verkäufen in 24 Stunden irgendwas unternimmt: überschaubar.
Und das ist das eigentliche Problem mit dieser Regel. Sie existiert. Sie hat keine Zähne. Studios, die sie ignorieren, zahlen keine spürbaren Konsequenzen – ausser ein paar Tage schlechter Presse, die schnell wieder verblasst, wenn das nächste Update rauskommt.
Zwei Millionen Verkäufe, minus 30 Prozent Aktienwert, plus KI-Kontroverse
Nur zur Einordnung, wie turbulent dieser Launch insgesamt war:
Pearl Abyss sah seinen Aktienkurs am Launch-Tag um fast 30 Prozent einbrechen – nicht weil das Spiel schlecht war, sondern weil ein Metacritic-Score von 78 die hochgesteckten Investorenwartungen nicht erfüllte. Das Spiel selbst verkaufte sich trotzdem stark, knackte zwei Millionen Einheiten in 24 Stunden und schoss auf Platz eins der Steam-Bestsellerliste.
Dann kamen die Control-Beschwerden. Dann die KI-Gemälde. Dann das Statement.
Pearl Abyss kämpft gerade auf drei Fronten gleichzeitig – und hat trotzdem auf jede halbwegs vernünftig reagiert. Die Controls werden gepatcht. Das Audit läuft. Das macht die Situazion nicht besser, aber es zeigt zumindest, dass das Studio weiss, wo es gerade steht.
Und jetzt?
Wenn drei grosse AAA-Studios in kurzer Zeit in dieselbe Falle tappen, dann ist die Falle Teil des Prozesses – nicht die Ausnahme.
KI-Tools in frühen Produktionsphasen einzusetzen, um Stimmungen zu explorieren oder schnell Konzeptbilder zu generieren: Das werden Studios weiter tun. Es kostet wenig, es geht schnell, und in der richtigen Phase macht es Sinn. Das Problem ist nicht der Einsatz, sondern die fehlende Disziplin danach – kein robuster Prozess zum Herausfiltern dieser Assets, keine Offenlegung, und die stille Hoffnung, dass es niemand merkt.
Die Community merkt es immer. Sie zählt die Finger. Sie vergleicht die Texturen. Sie postet auf Reddit.
Die Frage ist, wie lange Studios noch darauf setzen können, dass eine Entschuldigung reicht – und ob Valve oder Regierungen irgendwann tatsächlich Konsequenzen ziehen.
Zieht du beim Einsatz von KI-Tools in der Entwicklung eine harte Linie – oder ist es für dich okay, solange die finalen Assets sauber sind?