Anthropic, das KI-Unternehmen hinter dem Sprachmodell Claude, passt seine Datenschutzrichtlinien an. Ab Ende September werden Nutzerdaten zum Training der KI-Modelle herangezogen, sofern dem nicht aktiv widersprochen wird.

 

Datennutzung bei Claude

Anthropic vollzieht eine Kehrtwende in seiner Datenverarbeitung. Das Unternehmen wird ab dem 28. September 2025 damit beginnen, Konversationen aus seinem Chatbot Claude für das Training zukünftiger KI-Versionen zu verwenden. Diese Änderung betrifft alle Nutzer der kostenlosen sowie der Pro- und Max-Abonnements. Wer dies nicht wünscht, muss selbst aktiv werden, da die Zustimmung zur Datennutzung standardmässig aktiviert ist.

 

Kurz & Knapp

  • Was ändert sich? Anthropic nutzt Nutzer-Chats zur Verbesserung seiner KI-Modelle.
  • Ab wann? Die neue Regelung tritt am 28. September 2025 in Kraft.
  • Wer ist betroffen? Alle Nutzer der Tarife Free, Pro und Max.
  • Wie widersprechen? Ein Schalter im Pop-up oder in den Datenschutzeinstellungen muss deaktiviert werden.
  • Standardeinstellung: Die Zustimmung zur Datennutzung (Opt-in) ist voreingestellt.
  • Datenaufbewahrung: Bei Zustimmung werden die Daten für fünf Jahre gespeichert.

Die neue Datenrichtlinie im Detail

Bisher verfolgte Anthropic eine strikte Trennung zwischen den Konversationen der Endanwender und den Trainingsdaten für die eigenen Modelle. Diese Praxis wird nun aufgegeben. Mit der neuen Richtlinie nähert sich das Unternehmen den Vorgehensweisen anderer grosser Akteure im KI-Sektor an. Die Änderung wird den Nutzern über ein Pop-up-Fenster mit dem Titel „Updates to Consumer Terms and Policies“ kommuniziert.

Die entscheidende Handlung liegt beim Nutzer. Wer das Pop-up mit einem Klick auf „Accept“ bestätigt, ohne die Voreinstellung zu ändern, willigt automatisch in die Nutzung seiner Daten ein.

Die Entscheidung hat weitreichende Folgen: Daten, die einmal in den Trainingsprozess eingeflossen sind, können nachträglich nicht mehr entfernt werden. Eine spätere Änderung der Einstellung wirkt sich also nur auf zukünftige Konversationen aus.

Schritt-für-Schritt: So verhinderst du die Datennutzung

Die Kontrolle über die eigenen Daten zu behalten, erfordert in diesem Fall proaktives Handeln. Hast du dich bereits durch das Pop-up geklickt oder möchtest du dich vorbereiten? So gehst du vor, um der Nutzung deiner Chats zu widersprechen.

Möglichkeit 1: Das Pop-up-Fenster

Beim Erscheinen des Hinweises zu den neuen Richtlinien findest du einen Schalter, der standardmässig auf „On“ steht. Um die Nutzung deiner Daten zu unterbinden, musst du diesen Schalter auf „Off“ stellen, bevor du die neuen Bedingungen akzeptierst.

Möglichkeit 2: Die Kontoeinstellungen

Solltest du die Zustimmung bereits erteilt haben, lässt sich diese Entscheidung für die Zukunft widerrufen.

  1. Navigiere zu deinen Kontoeinstellungen.
  2. Öffne den Reiter „Privacy“ (Datenschutz).
  3. Deaktiviere dort die Option „Help improve Claude“.

Diese Handlung verhindert, dass zukünftige Chats für das KI-Training verwendet werden. Bereits erfasste Daten bleiben davon unberührt.

Branchentypisch

Der Schritt von Anthropic ist im Kontext der Branche wenig überraschend, markiert aber eine Abweichung vom bisherigen Kurs des Unternehmens, das sich oft auf Sicherheit und Datenschutz berufen hat. Die Sammlung von Nutzerdaten in grossem Stil ist für Anthropic  insofern wichtig, um die Leistungsfähigkeit von Sprachmodellen zu steigern und mit Konkurrenten wie OpenAI oder Google Schritt zu halten. Für dich als Nutzer entsteht der bekannte Zielkonflikt: Einerseits trägt die Freigabe von Daten potenziell zur Verbesserung des Dienstes bei, andererseits steht der legitime Wunsch nach Privatsphäre und Kontrolle über die eigenen Informationen. Die Opt-out-Methode legt die Verantwortung dabei eindeutig in die Hände der Anwender.

The Bottom Line

Die Anpassung der Datenschutzrichtlinie bei Anthropic ist ein klares Signal, dass der Bedarf an Trainingsdaten für die Weiterentwicklung von KI-Modellen ungebrochen hoch ist. Für Nutzer von Claude bedeutet dies, aufmerksam zu sein und die eigenen Datenschutzeinstellungen bewusst zu konfigurieren, um die Kontrolle über die Verwendung ihrer Konversationen zu behalten. Die Entscheidung, ob persönliche Daten zur Verbesserung einer Technologie beitragen sollen, muss letztlich jeder für sich selbst treffen.