Quand les conversations ChatGPT se retrouvent soudainement sur Google : le regard du droit suisse de la protection des données

Sep 30, 2025

Introduction

Fin juillet 2025, un incident a fait grand bruit : des conversations privées issues de ChatGPT sont apparues dans les résultats de recherche Google. Pour de nombreux utilisateurs, ce fut un choc. Pour les juristes, ce scénario n’était pas totalement inattendu.

Car une vérité s’impose : saisir des informations sensibles dans un système d’IA externe signifie toujours courir le risque de perdre le contrôle de ces données.

Cet épisode soulève une question cruciale : qu’en est-il de la protection des données avec ChatGPT en Suisse ? Quels sont les cadres juridiques applicables et quelles mesures les entreprises doivent-elles adopter pour éviter des fuites similaires ?

Cadre juridique : LPD, RGPD et Convention du Conseil de l’Europe

En Suisse, le traitement des données personnelles est régi par la Loi fédérale sur la protection des données (LPD) révisée. Elle impose, entre autres, une base légale valable, la transparence et des mesures de sécurité appropriées (art. 6 ss LPD).

Au niveau européen, le Règlement général sur la protection des données (RGPD) fixe des principes stricts tels que la minimisation, la limitation des finalités et la confidentialité (art. 5 RGPD).

S’y ajoutent la Convention 108+ du Conseil de l’Europe ainsi que le futur AI Act de l’Union européenne

Les risques liés à l’usage de l’IA

L’affaire illustre clairement les dangers d’une utilisation imprudente des systèmes d’IA externes :

  • Fuite de données : le contenu des conversations peut finir dans des ensembles d’apprentissage ou être indexé par des moteurs de recherche.

  • Perte de contrôle : les utilisateurs ignorent souvent où leurs données sont stockées et comment elles sont traitées.

  • Responsabilité : les entreprises restent responsables en cas de violation de la protection des données – même si l’erreur provient d’un usage inapproprié par leurs collaborateurs.

Les opportunités offertes par des lignes directrices claires

Malgré ces risques, les outils d’IA offrent de réelles opportunités : gain d’efficacité, assistance créative, automatisation de tâches. La clé réside dans l’instauration de garde-fous organisationnels.

Parmi les mesures essentielles :

  • Moderniser les contrats : inclure des clauses spécifiques à l’IA dans les contrats fournisseurs et cloud.

  • Classifier l’information : définir quelles données peuvent être saisies dans un outil d’IA – et lesquelles sont strictement interdites.

  • Mettre en place des directives internes : une politique IA claire permet d’orienter les collaborateurs.

  • Sensibiliser : des formations ciblées et des modules e-learning réduisent le risque d’erreurs humaines.

Découvrez nos programmes pratiques dans la section E-Learning

Exemple pratique : énergie et numérisation

Dans le secteur de l’énergie, où les données de consommation sont particulièrement sensibles, l’utilisation d’IA nécessite une vigilance accrue. Une requête imprudente dans ChatGPT peut suffire à divulguer des données de compteurs intelligents (Smart Meters) ou des informations stratégiques.

Notre expérience montre que les entreprises qui instaurent tôt des structures de gouvernance et des mesures de transparence réussissent à tirer profit de l’IA tout en respectant la LPD révisée et la Loi sur l’approvisionnement en électricité (LApEl/StromVG).

Plus de détails sur ces aspects dans notre section Énergie & Numérisation

Conclusion : assumer ses responsabilités

L’incident de juillet 2025 est une piqûre de rappel : la protection des données avec ChatGPT en Suisse est une condition incontournable pour l’usage sécurisé de l’IA.

Les entreprises qui souhaitent adopter ces outils doivent connaître les risques, appliquer les exigences légales et mettre en œuvre des mesures pragmatiques.

L’intelligence artificielle est un outil puissant – mais uniquement sûr si les organisations prennent leurs responsabilités.

👉 Nous vous accompagnons dans l’intégration de l’IA – avec pragmatisme, efficacité et transparence.

Bruno Schnarwiler

Konsulent Informationssicherheit

Bruno Schnarwiler ist ein Experte in Wirtschaftsinformatik mit über 30 Jahren Erfahrung als Auditor, Projektmanager, Berater und Führungskraft. Mit Abschlüssen als Eidg. Dipl. Wirtschaftsinformatiker, CISA und ISO 27001 Lead Auditor verfügt er über Fachkenntnisse in Informationssicherheit, Krisen- und Risikomanagement sowie digitalen Archivierungslösungen. Er hatte Schlüsselrollen wie Leiter IT-Revision und Risikomanagement in einer Bank, Leiter Softwareentwicklung und Berater für Sicherheit. Diese Tätigkeiten gaben ihm umfassende Einblicke in Branchen und Prozesse. Er trägt zur Implementierung sicherer IT-Umgebungen, Optimierung interner Kontrollsysteme und Entwicklung nachhaltiger Lösungen bei, die moderne Anforderungen erfüllen.
Edith Luginbühl

Assistante

Edith Luginbühl est une assistante engagée et expérimentée avec plus de 50 ans d'expérience professionnelle. Sa carrière professionnelle a commencé par une formation commerciale dans une grande banque et l'a menée dans différents secteurs, dont la restauration, l'hôtellerie, la location de voitures, les agences de voyage et la rédaction de journaux. Parmi ses points forts, on peut citer son caractère aimable et professionnel, sa fiabilité ainsi que son sens aigu du détail.

Alex Wild

L'étudiant

Alexander Wild a commencé ses études de droit à l'Université de Zurich en 2019. Avant et pendant ses études, il a déjà pu acquérir une première expérience dans un département de compliance d'une banque, a travaillé en tant que support informatique ainsi que dans un département juridique d'une entreprise pharmaceutique active au niveau international. Ses activités comprenaient entre autres la vérification/le respect des instructions bancaires, des sanctions, des clients et du risque pays ; l'évaluation du risque client général pour la banque ; le support Wet Ink ainsi que le support dans l'optimisation des processus de signature de contrats. Depuis 2022, il travaille comme assistant juridique chez Balthasar Legal AG et LR | Rechtsanwälte. Il devrait terminer ses études de master en 2025.

Sangmo Agontsang

Paralegal

Sangmo Agontsang a obtenu son diplôme d'économiste à la Kaderschule de Zurich en 2012. Après l'obtention de son diplôme, elle a travaillé comme assistante du CEO, notamment pour Freitag lab ag et CBM Suisse. Elle a en outre acquis de l'expérience dans l'organisation de la Kaderschule Zürich et a travaillé pendant trois ans dans le département Intellectual Property de Freitag lab ag. Elle y a travaillé au niveau international avec une équipe d'avocats pour défendre les droits de l'entreprise. Depuis 2022, elle travaille comme parajuriste chez Balthasar Legal AG.

Markus Bruggmann

MLaw Conseiller principal

MLaw Markus Bruggmann a terminé ses études de droit à l'Université de Zurich en 2013. Depuis, il a travaillé entre autres pour une banque, un cabinet d'avocats d'affaires et une compagnie d'assurance, où il s'est spécialisé dans le conseil ainsi que dans la vérification et la rédaction de contrats dans les domaines du droit de la communication et de la technologie (protection des données), en tenant compte du droit de la responsabilité civile et de la propriété intellectuelle. Parmi ses points forts figurent ses capacités d'analyse et sa vaste expérience.