Wie verhindere ich, dass KI-Anbieter meine Daten für ihr Modelltraining nutzen?
Wie verhindere ich, dass KI-Anbieter meine Daten für ihr Modelltraining nutzen?
Bild
Wie verhindere ich, dass KI-Anbieter meine Daten für ihr Modelltraining nutzen?
Bildrechte: picture alliance / ZUMAPRESS.com | Andre M. Chang
Schlagwörter
Bildrechte: picture alliance / ZUMAPRESS.com | Andre M. Chang
Audiobeitrag

Wie verhindere ich, dass KI-Anbieter meine Daten für ihr Modelltraining nutzen?

Audiobeitrag
> Netzwelt >

Von ChatGPT bis DeepSeek: So schützen Sie Ihre Daten

Von ChatGPT bis DeepSeek: So schützen Sie Ihre Daten

Die Berliner Datenschutzbeauftragte will den chinesischen KI-Chatbot DeepSeek aus deutschen App-Stores verbannen. Doch auch bei anderen beliebten KI-Diensten sollten Nutzer genau hinschauen, was mit ihren Chat-Daten passiert.

Über dieses Thema berichtet: BR24 am .

Millionen Deutsche nutzen bereits KI-Chatbots wie ChatGPT oder Claude. Was viele nicht wissen: Die meisten Anbieter verwenden standardmäßig alle Unterhaltungen, um ihre Modelle zu verbessern. Jede Frage, jeder hochgeladene Text oder jedes Bild kann theoretisch in die Trainingsdaten zukünftiger KI-Versionen einfließen. Besonders problematisch wird es, wenn persönliche oder berufliche Informationen preisgegeben werden.

Aber: Viele Anbieter haben in den letzten Monaten ihre Datenschutz-Einstellungen verbessert und bieten inzwischen Möglichkeiten, das Training mit eigenen Daten zu verhindern. Doch wie zuverlässig sind diese?

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.

Welche Modelle trainieren mit Nutzerdaten?

  • ChatGPT von OpenAI verwendet Nutzereingaben standardmäßig zum Modelltraining. In den Einstellungen können Anwender aber unter "Datenkontrollen" den Schalter "Modell für alle verbessern" ausschalten, um zu verhindern, dass ihre Gespräche für das Training verwendet werden. Zusätzlich gibt es einen "Temporärer Chat"-Modus, bei dem Unterhaltungen nicht gespeichert werden – zumindest theoretisch. Denn: Kürzlich hat ein US-Bundesrichter angeordnet, dass OpenAI im Rahmen eines Gerichtsverfahrens bis auf Weiteres auch "temporäre" Chats aufbewahren muss.
  • Claude von Anthropic wiederum gilt als besonders nutzerfreundlich. Als einziger Anbieter verzichtet die Firma standardmäßig auf das Training mit Nutzerdaten und löscht Unterhaltungen automatisch nach 30 Tagen. Nur bei explizitem Feedback durch Nutzer werden die Daten verwendet.
  • Bei Googles Chatbot Gemini werden standardmäßig alle Gespräche zur Modellverbesserung verwendet, und ein Teil wird sogar von menschlichen Bewertern analysiert. In den Google-Kontoeinstellungen können Nutzer die "Gemini Apps-Aktivitäten" ausschalten, aber Google warnt trotzdem auch selbst davor, vertrauliche Informationen einzugeben.
  • Mistral aus Frankreich positioniert sich als datenschutzfreundliche europäische Alternative. Der Anbieter speichert Daten auf EU-Servern und ermöglicht es, dem Training mit Nutzerdaten zu widersprechen.
  • Der chinesische Anbieter DeepSeek nutzt alle Nutzereingaben explizit zur Modellverbesserung und speichert Daten auf Servern in China. Die Möglichkeit zum Opt-Out besteht zwar, deren Zuverlässigkeit ist jedoch umstritten. Die Berliner Datenschutzbeauftragte etwa will erreichen, dass DeepSeek nicht mehr in deutschen App Stores zugelassen wird.

Worauf Nutzer achten sollten

Wer KI-Chatbots nutzt, sollte die Datenschutz-Einstellungen seines bevorzugten Dienstes überprüfen und das Training mit eigenen Daten ausschalten. Sensible oder berufliche Informationen gehören grundsätzlich nicht in KI-Chats. Als Faustregel gilt: Nur Daten eingeben, die theoretisch auch öffentlich werden könnten.

Besonders vorsichtige Nutzer können auf europäische Anbieter wie Mistral setzen oder die Temporär-Modi nutzen, die inzwischen viele Dienste anbieten – obgleich man sich auch auf diese nicht blind verlassen sollte, wie der Fall OpenAI zeigt. Chinesische KI-Dienste wie DeepSeek sollten deutsche Nutzer dagegen meiden.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!