Einleitung
Ende Juli 2025 sorgte ein Vorfall international für Aufsehen: Private Konversationen aus ChatGPT wurden in der Google-Suche auffindbar. Was für viele Nutzerinnen und Nutzer ein Schock war, war für Juristinnen und Juristen eher erwartbar. Denn wer sensible Daten in externe KI-Systeme eingibt, muss stets damit rechnen, dass diese Informationen ausser Kontrolle geraten.
Der Vorfall wirft grundlegende Fragen auf: Wie steht es um den ChatGPT Datenschutz in der Schweiz? Welche rechtlichen Rahmenbedingungen gelten – und welche Massnahmen müssen Unternehmen ergreifen, um sich vor ähnlichen Risiken zu schützen?
Rechtlicher Rahmen: DSG, DSGVO und Europarats-Konvention
Die Bearbeitung von Personendaten in der Schweiz richtet sich nach dem revidierten Datenschutzgesetz (revDSG). Dieses verlangt unter anderem, dass Unternehmen eine rechtmässige Grundlage, Transparenz und angemessene Sicherheitsmassnahmen gewährleisten (Art. 6 ff. DSG).
Auch auf europäischer Ebene sind die Vorgaben streng: Die Datenschutz-Grundverordnung (DSGVO) verlangt in Art. 5 DSGVO Datenminimierung, Zweckbindung und Vertraulichkeit.
Hinzu kommt der Europarats-Übereinkommen 108+ über den Datenschutz sowie die geplante EU AI Act
Risiken beim Einsatz von KI
Der Fall zeigt deutlich, welche Risiken beim unbedachten Einsatz externer KI-Systeme entstehen:
-
Datenabfluss: Inhalte von Konversationen können in Trainingsdaten oder Suchindizes gelangen.
-
Kontrollverlust: Nutzerinnen und Nutzer wissen oft nicht, wo ihre Daten gespeichert oder weiterverarbeitet werden.
-
Haftung: Unternehmen tragen die Verantwortung für Datenschutzverletzungen – auch dann, wenn Mitarbeitende unbedacht sensible Informationen in ein KI-Tool eingeben.
Chancen durch klare Leitlinien
KI-Tools bieten zweifellos enorme Chancen: effizientere Prozesse, schnelle Recherchen, kreative Unterstützung im Büroalltag. Entscheidend ist, ob Unternehmen klare Leitplanken schaffen.
Dazu gehören:
-
Verträge modernisieren: Lieferanten- und Cloud-Verträge müssen Klauseln zum KI-Einsatz enthalten.
-
Informationen klassifizieren: Welche Daten dürfen in KI-Systeme? Welche sind tabu?
-
Interne Leitlinien: Eine KI-Weisung gibt Mitarbeitenden klare Handlungsanweisungen.
-
Sensibilisierung: Schulungen und E-Learning-Module stellen sicher, dass Mitarbeitende die Risiken kennen.
Mehr zu praxisnahen Weiterbildungsangeboten finden Sie in unserem E-Learning-Bereich
Praxisbeispiel: Energie- und Digitalisierungsbranche
Gerade im Energiesektor, wo sensible Verbrauchsdaten anfallen, ist der Umgang mit KI besonders heikel. Ein unkontrollierter Einsatz von ChatGPT kann dazu führen, dass vertrauliche Smart-Meter-Daten oder strategische Projektinformationen offengelegt werden.
Unsere Praxis zeigt: Unternehmen, die frühzeitig Governance-Strukturen und Transparenzmassnahmen einführen, können KI erfolgreich einsetzen, ohne die Einhaltung des revDSG oder des Stromversorgungsgesetzes (StromVG) zu gefährden.
Mehr dazu erfahren Sie auch in unserem Bereich Energie & Digitalisierung
Fazit: Verantwortung übernehmen
Der Vorfall vom Juli 2025 macht klar: ChatGPT Datenschutz in der Schweiz ist kein Randthema, sondern zentral für den sicheren Einsatz von KI.
Unternehmen, die KI einführen, müssen die Risiken kennen, rechtliche Anforderungen berücksichtigen und ihre Organisation mit pragmatischen Massnahmen absichern.
KI ist ein mächtiges Werkzeug – aber nur sicher, wenn Unternehmen Verantwortung übernehmen.
Wir begleiten Sie bei der Einführung von KI-Tools – Kompetent, Effizienz und Transparenz.
Hier die Kolumne: KI im Büro – Komfort trifft auf Verantwortung