Pourquoi ne pas faire confiance à ChatGPT pour partager des informations confidentielles avec lui

ChatGPT est devenu un problème majeur de sécurité et de confidentialité car de nombreux utilisateurs partagent inconsciemment des informations privées. ChatGPT enregistre toutes les conversations que vous avez avec lui, y compris toutes les données personnelles que vous partagez. Cependant, vous ne le sauriez pas si vous n'aviez pas consulté la page Politique de confidentialité, Conditions d'utilisation et FAQ d'OpenAI pour en avoir une compréhension claire et complète.

La fuite de vos informations privées est déjà assez grave, mais comme de grandes entreprises utilisent ChatGPT pour traiter les informations tous les jours, cela pourrait être le début d'une catastrophe de fuite de données. Vérifier ChatGPT a-t-il des problèmes de confidentialité ?

Pourquoi vous ne devriez pas faire confiance à ChatGPT pour partager des informations confidentielles avec lui - AI Protection

Samsung a divulgué des informations confidentielles via ChatGPT

Selon Gizmodo Les employés de Samsung ont accidentellement divulgué des informations confidentielles via ChatGPT à trois reprises en 20 jours. Ce n'est là qu'un exemple de la facilité avec laquelle les entreprises peuvent mettre en danger des informations privées.

ChatGPT est publiquement critiqué pour ses problèmes de confidentialité, il est donc excitant que Samsung permette que cela se produise. Certains pays ont même interdit ChatGPT pour protéger leurs citoyens jusqu'à ce que sa confidentialité soit améliorée, on pourrait donc penser que les entreprises seraient plus prudentes quant à la façon dont leurs employés l'utilisent.

Heureusement, les clients de Samsung semblent en sécurité, du moins pour le moment. Les données compromises ne concernaient que les pratiques de travail internes, certains codes privés qui ont été dépannés et les procès-verbaux des réunions d'équipe, tous soumis par les employés. Cependant, il était facile pour les employés de divulguer des informations personnelles aux consommateurs, et ce n'est qu'une question de temps avant de voir une autre entreprise faire exactement cela. Si cela se produit, nous pouvons nous attendre à une augmentation exponentielle du phishing et du vol d'identité.

Il y a aussi une autre couche de risque ici. Si les employés utilisent ChatGPT pour rechercher des bogues comme ils l'ont fait avec la fuite de Samsung, le code écrit dans la boîte de discussion sera également stocké sur les serveurs d'OpenAI. Cela peut conduire à des violations qui ont un impact significatif sur les entreprises qui explorent des logiciels et des produits inédits. Nous pouvons finir par voir des informations telles que des plans d'affaires non publiés, des versions futures et des prototypes divulgués, entraînant d'énormes pertes de revenus.

Comment se produit la fuite de données ChatGPT ?

Pourquoi vous ne devriez pas faire confiance à ChatGPT pour partager des informations confidentielles avec lui - AI Protection

Expliquer Politique de confidentialité de ChatGPT Ils enregistrent vos conversations et partagent les enregistrements avec d'autres entreprises et des formateurs en IA. Lorsqu'une personne (par exemple, un employé de Samsung) saisit des informations confidentielles dans la boîte de dialogue, elles sont enregistrées et sauvegardées sur les serveurs de ChatGPT.

Il est très peu probable que le personnel l'ait fait exprès, mais c'est ce qui fait peur. La plupart des violations de données sont dues à une erreur humaine. C'est souvent parce que l'entreprise n'informe pas ses employés des risques pour la vie privée liés à l'utilisation d'outils tels que l'intelligence artificielle.

Par exemple, s'ils collent une grande liste de contacts dans un chat et demandent à l'IA d'isoler les numéros de téléphone des clients des données, ChatGPT a ces noms et numéros de téléphone dans ses enregistrements. Vos informations privées sont à la merci des entreprises avec lesquelles elles sont partagées, qui peuvent ne pas les protéger de manière adéquate pour assurer votre sécurité. Il y a certaines choses que vous pouvez faire pour assurer votre sécurité après une violation de données, mais les entreprises devraient être responsables de la prévention des fuites. Vérifier Qu'est-ce qu'une violation de données et comment pouvez-vous vous protéger?

Morale de l'histoire : ne dites pas vos secrets à ChatGPT

Vous pouvez utiliser ChatGPT en toute sécurité pour des centaines de tâches différentes, mais l'organisation d'informations confidentielles n'en fait pas partie. Vous devez faire attention à ne pas taper quoi que ce soit de personnel dans la boîte de discussion, y compris votre nom, votre adresse, votre adresse e-mail et votre numéro de téléphone. Il est facile de faire cette erreur, vous devez donc veiller à revérifier vos réclamations pour vous assurer que rien ne s'est mal passé.

La fuite de Samsung nous montre à quel point les risques de fuite de données liés à ChatGPT sont réels. Malheureusement, nous verrons plus de ces types d'erreurs, éventuellement avec des impacts beaucoup plus importants, car l'IA devient un élément central des opérations de la plupart des entreprises. Vous pouvez voir maintenant Comment l'IA générative va changer le marché du travail.

Aller au bouton supérieur