Claude-Chats werden nun für das KI-Training verwendet, aber Sie können entkommen
Claude – einer der beliebtesten KI-Chatbots und potenzieller Kandidat für Apples Siri-Erweiterung – wird bald ein Transkript aller Chats für KI-Trainingszwecke speichern. Die von Anthropic angekündigte Richtlinienänderung ist den Nutzern bereits angezeigt worden und gibt ihnen bis zum 28. September Zeit, die Bedingungen zu akzeptieren.
Was ändert sich?
Anthropic sagt, dass das Protokoll der Benutzerinteraktionen mit Claude und seinem entwicklerorientierten Tool Claude Code für Schulungen, Modellverbesserungen und die Stärkung der Sicherheitsvorkehrungen verwendet wird. Bisher hat das KI-Unternehmen keine Benutzerdaten für das KI-Training genutzt.
„Mit Ihrer Teilnahme helfen Sie uns, die Modellsicherheit zu verbessern, indem Sie unsere Systeme zur Erkennung schädlicher Inhalte präziser machen und die Wahrscheinlichkeit verringern, dass harmlose Gespräche markiert werden“, so das Unternehmen. Die Richtlinienänderung ist nicht verpflichtend, und Benutzer können sich dafür entscheiden, sie abzulehnen.
Bis zum 28. September wird den Nutzern eine Benachrichtigung zur Datennutzungsrichtlinie angezeigt. Über das Popup-Fenster können sie den Schalter „Sie können Claude verbessern“ einfach deaktivieren und ihre Einstellungen anschließend durch Klicken auf die Schaltfläche „Akzeptieren “ speichern. Nach dem 28. September müssen Nutzer ihre Einstellungen manuell im Dashboard für die Modelltrainingseinstellungen ändern.
Was ist das Endergebnis?
Die aktualisierte Trainingsrichtlinie gilt nur für neue Chats mit Claude oder solche, die Sie fortsetzen, nicht jedoch für alte Chats. Aber warum diese Umkehr? Der Weg zur KI- Überlegenheit ist ziemlich geradlinig. Je mehr Trainingsmaterial Sie in die Hände bekommen, desto besser ist die Leistung des KI-Modells.
Die Branche leidet bereits unter Datenknappheit, daher ist der Schritt von Anthropic nicht überraschend. Wenn Sie bereits Claude nutzen, können Sie sich über diesen Pfad abmelden: Einstellungen > Datenschutz > Helfen Sie mit, Claude zu verbessern .
Die neue Benutzerdatenrichtlinie von Anthropic gilt für die Tarife Claude Free, Pro und Max. Sie gilt jedoch nicht für die Tarife Claude for Work, Claude Gov, Claude for Education, APU-Nutzung oder bei Verbindung mit Plattformen von Drittanbietern wie Googles Vertex AI und Amazon Bedrock.
Darüber hinaus ändert Anthropic auch seine Regeln zur Datenaufbewahrung. Nun kann das Unternehmen eine Kopie der Nutzerdaten bis zu fünf Jahre lang aufbewahren. Von Nutzern manuell gelöschte Chats werden nicht für das KI-Training verwendet.
