"Digitale Inzucht": Dan Houser, der Rinderwahnsinn und die Hybris der KI-Elite
Wenn Dan Houser spricht, hört die Gaming-Industrie zu. Nicht, weil er laut ist, sondern weil er Recht behält. Der Kopf hinter den komplexesten Satiren der modernen Popkultur (GTA, Red Dead Redemption) hat sich selten in die Tech-Debatte eingemischt. Doch jetzt artikuliert er eine Sorge, die viele Entwickler und Kreative umtreibt, aber selten so drastisch formuliert wird: Die KI-Branche frisst sich gerade selbst auf – getrieben von einer Elite, die den Faktor Mensch weder versteht noch wertschätzt.
Tech-Briefing: The Houser Argument
- Der "Mad Cow"-Loop: Houser vergleicht das Training von KIs mit synthetischen Daten mit Kannibalismus. In der Informatik ist dies als Model Collapse bekannt.
- Synthetic Data Fatigue: Das Internet flutet sich selbst mit generischem Content. Modelle verlieren an Varianz ("Perplexität"), wenn das menschliche "Chaos" im Datensatz fehlt.
- Die 80/20-Hürde: LLMs liefern 80% passable Ergebnisse. Die letzten 20% – Nuance, Subtext, echte Innovation – bleiben algorithmisch unerreichbar fern.
- Kulturelle Kritik: Houser wirft Tech-CEOs vor, "Menschlichkeit" simulieren zu wollen, ohne selbst "vollständige Menschen" zu sein.
Wenn die KI anfängt, sich selbst zu zitieren
Housers Metapher ist brutal, aber treffend: "It’s sort of like when we fed cows with cows and got mad cow disease."
Was er hier als "Rinderwahnsinn" der KI beschreibt, ist ein reales, mathematisches Szenario, vor dem Forscher seit Monaten warnen.
Technisch sprechen wir von einem degenerativen Learning Loop. LLMs (Large Language Models) sind statistische Wahrscheinlichkeitsmaschinen. Sie sagen das nächste Token basierend auf Mustern voraus. Wenn das Internet – also der Trainingsdatensatz für GPT-5, Claude 4 oder Llama 4 – zunehmend aus Texten besteht, die von GPT-4 geschrieben wurden, verengt sich der "Genpool" der Daten.
Das Resultat ist eine digitale Inzucht:
- Verlust der "Tail Ends": Seltene, kreative oder abseitige Informationen (oft der Ursprung echter Innovation) werden als statistisches Rauschen weggeglättet.
- Konvergenz zur Mitte: Alles klingt gleich. Der Output wird "beige" – technisch korrekt, aber inhaltlich tot.
- Halluzinations-Verstärkung: Fehler früherer Modelle werden als Fakten in die nächste Generation inkorporiert ("Model Autophagy").
Houser erkennt hier als Storyteller das, was Data Scientists als Entropy Loss messen: Ohne frischen, menschlichen Input kollabiert das System.
Die Arroganz der Optimierer
Der vielleicht schmerzhafteste Punkt in Housers Kritik zielt nicht auf die Technik, sondern auf die Kultur dahinter. Er spricht den aktuellen Treibern des AI-Hypes die Kompetenz ab, über Kreativität zu urteilen.
"Some of these people trying to define the future of humanity, creativity [...] are not the most humane or creative people. They’re sort of saying ‘we’re better at being human than you are’, and it’s obviously not true."
Hier prallen zwei Welten aufeinander: Das Silicon Valley Engineering-Mindset, das Probleme wegoptimieren will, und die künstlerische Realität, die weiß, dass Reibung, Fehler und Ecken erst Charakter erzeugen.
Wir sehen das in der SaaS-Welt täglich: Tools, die versprechen, "den kreativen Prozess zu demokratisieren", produzieren oft nur generischen Durchschnitt. Houser, der Jahre damit verbracht hat, Charaktere mit Ecken und Kanten zu schreiben, sieht in der aktuellen AI-Welle den Versuch, den menschlichen Geist auf eine API-Abfrage zu reduzieren. Es ist der Versuch von Menschen, die in Tabellen denken, Kunst zu automatisieren.
Die letzten 20 Prozent: Wo die Simulation scheitert
Houser weist zudem auf ein klassisches Software-Problem hin, das im Hype oft untergeht: Die "Pareto-Hölle" der Entwicklung.
“The first 80% is quite easy, and the last 20% – to make it a perfect simulation [...] is very, very hard.”
Jeder Entwickler kennt das. Einen Prototypen zu bauen, der meistens funktioniert, ist einfach. Ein System zu bauen, das immer funktioniert und dabei glaubwürdig bleibt, ist exponentiell schwerer.
- Gaming-Kontext: In einem Red Dead Redemption reagiert die Welt deterministisch und konsistent. Wenn du den Sheriff beleidigst, passiert X.
- LLM-Kontext: Ein LLM "rät" die Reaktion. Es gibt keine konsistente Weltlogik, nur Wahrscheinlichkeiten.
Für Houser ist diese Unschärfe inakzeptabel. Ein NPC, der in 80% der Fälle logisch antwortet, aber in 20% der Fälle halluziniert, zerstört die Immersion komplett. Die Technologie ist beeindruckend als Werkzeug (Houser selbst nutzt AI bei Absurd Ventures für Prototyping), aber sie ist kein Ersatz für die finale Politur, die ein Produkt von "gut" zu "legendär" hebt.
Der Markt regelt – aber anders als gedacht
Housers Skepsis ist ein wichtiges Gegengewicht zum FOMO-Marketing (Fear Of Missing Out) der Tech-Konzerne. Er erinnert uns daran, dass Technologie kein Selbstzweck ist. Wenn die Datenqualität sinkt, weil wir das Internet mit KI-Müll fluten ("Mad Cow"), und wenn die Tools von Menschen gebaut werden, die Effizienz mit Empathie verwechseln, dann platzt die Blase. Nicht finanziell, sondern qualitativ. Am Ende setzt sich Qualität durch – und die ist aktuell, in den letzten entscheidenden 20 Prozent, immer noch analog.