Datenschutz bei Gemini ist leider ein schwieriges Thema. Google koppelt eine essentielle Funktion an das Training der KI mit den Chatdaten der Nutzer. Funktional ist Google Gemini eines meiner Lieblings-KI-Tools, u.a., weil ich Android Nutzer bin und die Integration natürlich sehr gut funktioniert. Während ich mir sicher war, alle Aspekte zum Thema Datenschutz passend eingestellt zu haben, bin ich kürzlich beim Smartphone-Wechsel auf etwas aufmerksam geworden, das irritierend wenig in der KI-Berichterstattung betont wird. Gemini ist bzgl. Datenschutz leider mit Abstand der schwächste der großen Anbieter.

Datenschutz oder Funktionalität?
Ein von Datenschützern kritisch gesehener Punkt ist es, wenn man dem KI-Anbieter erlaubt, die eigenen Chats mit der KI für das Training zukünftiger KI-Modelle verwenden zu dürfen. Das ist etwas anderes, als die Gedächtnis-Funktion, dazu an anderer Stelle mehr. Während die anderen großen Anbieter, ChatGPT und Claude, es dem Nutzer sehr einfach machen, das Training der KI zu deaktivieren, ist das bei Google zwar auch möglich, aber mit starken funktionalen Einschränkungen verbunden. Datenschutz bei Gemini ist daher ein besonderes Problem, weil Google leider die Chathistorie an die Zustimmung für das Training mit eben diesen Chats koppelt. Sofern man nicht will, dass Google alle Chats mit Gemini für das Training der zukünftigen KI-Modelle benutzt, muss man also darauf verzichten, auf die Chats zuzugreifen, die man in der Vergangenheit geführt hat.
Warum ist das ein Problem?
Grundsätzlich ist es natürlich verständlich, dass jeder KI-Anbieter gerne neue Daten haben möchten, um ihre KI-Modelle zu verbessern. Je mehr (gute) Textinhalte ein KI-Sprachmodell hat, desto besser kann es werden. Ich kann sogar nachvollziehen, dass die Voreinstellung ist, dass das KI-Modell-Training aktiviert ist, wie es bei ChatGPT von OpenAI ist. Dass man sich um den Schutz seiner Daten selbst kümmern muss, finde ich nicht vorbildlich, aber akzeptabel, solange man es problemlos passend einstellen kann. Was ich problematisch Datenschutz bei Gemini finde, ist, dass die Funktion der Chathistorie, eine Kernfunktion jedes KI-Modells, daran gekoppelt ist.
Die Chathistorie ist ein wesentliches Feature, das weh tut, wenn man es nicht hat:
- man kann Fragen, die man bereits einmal mit der KI gelöst hat, nicht wieder aufrufen. Ich nutze Gemini oft, um technische Probleme bei Software zu lösen. Wenn ich nicht in meiner Historie suchen kann und das Thema nicht separat dokumentiert habe, muss ich von vorne mit dem Erklären des Problems anfangen.
- man kann nicht an Themen weiterarbeiten, die man bereits mit der KI diskutiert hat, wie z.B. ein Thema, das man recherchieren lässt. Mit Historie kann man nach und nach weitere Fragen stellen, die sich bei besserem Verständnis des Thema über die Zeit ergeben.
- man kann die KI nicht für Schriftwechsel nutzen. Einer meiner Lieblings-Use Cases ist es, in formalen Fragen die KI mit den Inhalten (nicht: personenbezogenen Daten!) von Briefen zu füttern, um meine Antwort zu formulieren. Wenn die Antwort, z.B. bei einem Rechtsstreit, eine Weile dauert, ist die alte Diskussion bereits gelöscht, wenn die Antwort kommt.
Datenschutz bei Gemini: Und nun?
Ich finde es irritierend, dass die gesamte Branche diese wesentliche Schwäche von Gemini nicht thematisiert. Ansonsten hätte ich ja auch schon früher noch einmal überprüft, ob das wirklich so ist. Ich werde nun definitiv noch einmal stärker bei der Nutzung von Gemini darauf achten, was ich dort bearbeite und was nicht. Sensiblere Themen werde ich definitiv in einer KI bearbeiten, bei der man das Training deaktivieren kann: Claude, das aktuell durch seinen Widerstand gegen die amerikanische Regierung bekannter geworden ist. Anthropic, der Hersteller von Claude, unterscheidet sich von den anderen Anbietern dadurch, dass ethische Werte, u.a. Datenschutz dort besonders geachtet werden. Daher hat Claude auch als einzige KI eine eigene Verfassung, die diese Werte als klares Regelwerk festschreibt. Gleichzeitig ist Claude beim Vibe Coding und für Coaching durch die KI besonders gut. Für personenbezogene Daten verwende ich sowieso eine lokale KI, damit die Daten meinen Rechner erst gar nicht verlassen.
