لماذا لا يجب أن تثق في ChatGPT لمُشاركة المعلومات السرية معه

أصبح ChatGPT بمثابة مُشكلة أمنية وخصوصية رئيسية لأنَّ الكثير من المُستخدمين يقومون بمشاركة المعلومات الخاصة بدون وعي. يُسجل ChatGPT كل محادثة تُجريها معه ، بما في ذلك أي بيانات شخصية تُشاركها. ومع ذلك ، لن تعرف هذا ما لم تكن قد تعمقت في سياسة خصوصية OpenAI وشروط الخدمة وصفحة الأسئلة الشائعة للحصول على فهم واضح وشامل من خلالها.

يُعتبر تسريب معلوماتك الخاصة أمرًا خطيرًا بدرجة كافية ، ولكن نظرًا لأنَّ الشركات الضخمة تستخدم ChatGPT لمعالجة المعلومات كل يوم ، فقد يكون هذا بداية كارثة تسرب البيانات. تحقق من هل لدى ChatGPT مُشكلات تتعلق بالخصوصية؟

صورة لـ لماذا لا يجب أن تثق في ChatGPT لمُشاركة المعلومات السرية معه | 1Lq7oa1HJl7LV6Yg-aIqckg-DzTechs

قامت Samsung بتسريب المعلومات السرية عبر ChatGPT

وفقًا لـ Gizmodo ، سرب موظفو Samsung عن طريق الخطأ معلومات سرية عبر ChatGPT في ثلاث مناسبات منفصلة في غضون 20 يومًا. هذا مجرد مثال واحد على مدى سهولة تعريض الشركات المعلومات الخاصة للخطر.

يتعرض ChatGPT لانتقادات علنية بسبب مشكلات الخصوصية الخاصة به ، لذا من المُثير أن تسمح Samsung بحدوث ذلك. حتى أنَّ بعض البلدان حظرت ChatGPT لحماية مواطنيها إلى أن يتم تحسن خصوصيته ، لذلك قد تعتقد أنَّ الشركات ستكون أكثر حرصًا بشأن كيفية استخدام موظفيها له.

لحسن الحظ ، يبدو أنَّ عملاء Samsung آمنون — في الوقت الحالي على الأقل. تتعلق البيانات المُخترقة فقط بممارسات العمل الداخلية ، وبعض التعليمات البرمجية الخاصة التي تم استكشافها وإصلاحها ، ومحاضر اجتماع الفريق ، وكلها مُقدمة من قبل الموظفين. ومع ذلك ، كان من السهل على الموظفين تسريب المعلومات الشخصية للمُستهلكين ، وهي مسألة وقت فقط قبل أن نرى شركة أخرى تفعل ذلك بالضبط. إذا حدث هذا ، فيُمكننا أن نتوقع زيادة هائلة في عمليات التصيد الاحتيالي وسرقة الهوية.

هناك طبقة أخرى من المخاطر هنا أيضًا. إذا استخدم الموظفون ChatGPT للبحث عن الأخطاء كما فعلوا مع تسرب Samsung ، فسيتم أيضًا تخزين التعليمات البرمجية التي يتم كتابتها في مربع الدردشة على خوادم OpenAI. قد يؤدي ذلك إلى حدوث انتهاكات لها تأثير كبير على الشركات التي تعمل على استكشاف المُنتجات والبرامج التي لم يتم طرحها. قد ينتهي بنا الأمر إلى رؤية معلومات مثل خطط العمل التي لم يتم إصدارها والإصدارات المستقبلية والنماذج الأولية المتسربة ، مما يؤدي إلى خسائر ضخمة في الإيرادات.

كيف يحدث تسريب بيانات ChatGPT؟

صورة لـ لماذا لا يجب أن تثق في ChatGPT لمُشاركة المعلومات السرية معه | 1EpOvNgAdGR5yBDjGfOIc7Q-DzTechs

توضح سياسة خصوصية ChatGPT أنها تُسجل محادثاتك وتُشارك السجلات مع الشركات الأخرى ومدربي الذكاء الاصطناعي. عندما يكتب شخص ما (على سبيل المثال ، موظف Samsung) معلومات سرية في مربع الحوار ، يتم تسجيلها وحفظها على خوادم ChatGPT.

من المُستبعد جدًا أن يكون الموظفون قد فعلوا ذلك عن قصد ، ولكن هذا هو الجزء المخيف. تحدث معظم انتهاكات البيانات بسبب خطأ بشري. غالبًا ما يكون هذا بسبب فشل الشركة في تثقيف موظفيها حول مخاطر الخصوصية لاستخدام أدوات مثل الذكاء الاصطناعي.

على سبيل المثال ، إذا قاموا بلصق قائمة جهات اتصال كبيرة في الدردشة وطلبوا من الذكاء الاصطناعي عزل أرقام هواتف العملاء عن البيانات ، فإنَّ ChatGPT أصبح لديه هذه الأسماء وأرقام الهواتف في سجلاته. معلوماتك الخاصة تحت رحمة الشركات التي يتم مُشاركتها معها ، والتي قد لا تحميها بشكل كافٍ للحفاظ على سلامتك. هناك بعض الأشياء التي يُمكنك القيام بها للحفاظ على سلامتك بعد خرق البيانات ، ولكن يجب أن تكون الشركات مسؤولة عن منع التسريبات. تحقق من ما هو خرق البيانات وكيف يمكنك حماية نفسك؟

أخلاق القصة: لا تُخبر ChatGPT عن أسرارك

يُمكنك استخدام ChatGPT بأمان لمئات من المهام المختلفة ، ولكن تنظيم المعلومات السرية ليس من بينها. يجب أن تكون حريصًا على تجنب كتابة أي شيء شخصي في مربع الدردشة ، بما في ذلك اسمك وعنوانك وبريدك الإلكتروني ورقم هاتفك. من السهل ارتكاب هذا الخطأ ، لذا يجب أن تكون حريصًا على التحقق من مطالباتك للتأكد من عدم حدوث أي شيء عن طريق الخطأ.

يُوضح لنا تسريب Samsung مدى حقيقة مخاطر تسرب البيانات المُتعلقة بـ ChatGPT. لسوء الحظ ، سنرى المزيد من هذه الأنواع من الأخطاء ، ربما مع تأثيرات أكبر بكثير ، حيث يصبح الذكاء الاصطناعي جزءًا أساسيًا من عمليات معظم الشركات. يُمكنك الإطلاع الآن على الطرق التي سيُغيِّر بها الذكاء الاصطناعي التوليدي سوق العمل.

زر الذهاب إلى الأعلى