الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا

تَقدم الذكاء الاصطناعي بشكل ملحوظ خلال السنوات القليلة الماضية. يُمكن لنماذج اللغة المُتطورة تأليف روايات كاملة ، وترميز مواقع الويب الأساسية ، وتحليل مشاكل الرياضيات وحتى تقديم نصائح طبية.

على الرغم من أنَّ الذكاء الاصطناعي التوليدي مُثير للإعجاب وقدم المُساعدة في الكثير من المجالات ، إلا أنه يُمثل أيضًا مخاطر أمنية. يستخدم بعض الأشخاص روبوتات الدردشة للغش في الامتحانات ، بينما يستغلها البعض الآخر في جرائم الإنترنت. فيما يلي الأسباب التي تُؤدي إلى استمرار هذه المشكلات ، ليس فقط على الرغم من تطورات الذكاء الاصطناعي ولكن أيضًا بسببه. تحقق من الإنسانية مُعرضة لخطر الانقراض بسبب الذكاء الاصطناعي - كيف يُمكن إيقافه؟

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

1. تكشف روبوتات الدردشة بالذكاء الاصطناعي مفتوحة المصدر عن الأكواد الخلفية

المزيد من شركات الذكاء الاصطناعي تُوفر نماذج مفتوحة المصدر. حيث تُشارك نماذج لغتها بشكل علني بدلاً من إبقائها مُغلقة أو خاصة. خذ Meta كمثال. على عكس Google و Microsoft و OpenAI ، فإنها تسمح لملايين المُستخدمين بالوصول إلى نموذج لغتها ، LLaMA.

بينما قد تعمل أكواد المصادر المفتوحة على تطوير الذكاء الاصطناعي ، إلا أنها تنطوي أيضًا على مخاطرة. تُواجه OpenAI بالفعل مشكلة في التحكم في ChatGPT ، روبوت الدردشة الخاص بها ، لذا تخيل ما يمكن أن يفعله المُحتالون بالنماذج المجانية. سيكون لديهم سيطرة كاملة على هذه المشاريع.

حتى لو سحبت Meta نموذج لغتها فجأةً ، فقد أصدرت العشرات من مُختبرات الذكاء الاصطناعي الأخرى أكوادها بشكل عام بالفعل. دعونا نلقي نظرة على HuggingChat. نظرًا لأنَّ مطوره HuggingFace يفتخر بالشفافية ، فإنه يعرض مجموعات البيانات ونموذج اللغة والإصدارات السابقة بشكل علني.

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

2. مُطالبات كسر الحماية لخداع نماذج LLM

الذكاء الاصطناعي بطبيعته غير أخلاقي. إنه لا يفهم الصواب والخطأ — حتى الأنظمة المُتقدمة تتبع إرشادات التدريب والقيود المفروضة ومجموعات البيانات. هي فقط تتعرف على الأنماط.

لمُكافحة الأنشطة غير المشروعة ، يتحكم المطورون في الوظائف والإمكانيات التي يُمكن الوصول إليها من خلال وضع القيود. لا تزال أنظمة الذكاء الاصطناعي تصل إلى المعلومات الضارة. لكن إرشادات الأمان تمنعها من مشاركتها مع المستخدمين.

دعونا نلقي نظرة على ChatGPT. على الرغم من أنه يُجيب على أسئلة عامة حول أحصنة طروادة ، فإنه لن يُناقش عملية تطويرها.

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

ومع ذلك ، فإنَّ القيود ليست مضمونة. يتجاوز المُستخدمون الحدود عن طريق إعادة صياغة المُطالبات ، واستخدام لغة مُحيرة ، وتأليف إرشادات مفصلة بشكل صريح.

اقرأ مُطالبة كسر الحماية لـ ChatGPT أدناه. إنها تخدع ChatGPT لاستخدام لغة وقحة وتقديم تنبؤات لا أساس لها — كلا الفعلين ينتهكان إرشادات OpenAI.

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

إليك ChatGPT ينشر بيان جريء ولكنه كاذب.

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

تحقق من ما هو كسر حماية ChatGPT؟ هل يجب عليك استخدام هذه التقنيات؟

3. يتنازل الذكاء الاصطناعي عن الأمان من أجل تعدد الاستخدامات

تُعطي الشركات المُطورة للذكاء الاصطناعي الأولوية للتنوع على الأمان. إنها تُنفق مواردها على منصات التدريب لإنجاز مجموعة أكثر تنوعًا من المهام ، مما يؤدي في النهاية إلى تقليص القيود. بعد كل شيء ، يشيد السوق بروبوتات الدردشة الوظيفية.

دعنا نقارن ChatGPT و Bing Chat ، على سبيل المثال. بينما يتميز Bing بنموذج لغة أكثر تعقيدًا يسحب البيانات في الوقت الفعلي ، لا يزال المُستخدمون يتدفقون على الخيار الأكثر تنوعًا ، ChatGPT. تحظر قيود Bing الصارمة العديد من المهام. بدلاً من ذلك ، يتميز ChatGPT بمنصة مرنة تنتج مُخرجات مختلفة إلى حد كبير بناءً على مُطالباتك.

إليك دور ChatGPT كشخصية خيالية.

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

وهنا Bing Chat يرفض لعب شخصية “غير أخلاقية”.

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

4. أدوات الذكاء الاصطناعي التوليدي الجديدة تصل السوق بانتظام

تُمكِّن الأكواد مفتوحة المصدر الشركات الناشئة من الانضمام إلى سباق الذكاء الاصطناعي. حيث تقوم بدمجها في تطبيقاتها بدلاً من بناء نماذج لغوية من البداية ، مما يُوفر موارد هائلة. حتى المُبرمجون المُستقلون يُجرِّبون أكواد مفتوحة المصدر.

مرة أخرى ، تُساعد البرمجيات غير الاحتكارية في تطوير الذكاء الاصطناعي ، لكن الإصدار الجماعي لأنظمة غير مُدربة تدريباً جيداً لكنها مُتطورة تضر أكثر مما تنفع. المُحتالون سوف يسيئون استخدام نقاط الضعف بسرعة. قد يقومون حتى بتدريب أدوات الذكاء الاصطناعي غير الآمنة للقيام بأنشطة غير مشروعة.

على الرغم من هذه المخاطر ، ستستمر شركات التكنولوجيا في إطلاق إصدارات تجريبية غير مُستقرة من المنصات التي تعتمد على الذكاء الاصطناعي. يُكافئ سباق الذكاء الاصطناعي السرعة. من المُحتمل أن يتم حل الأخطاء في تاريخ لاحق بدلاً من تأخير إطلاق مُنتجات جديدة.

5. الذكاء الاصطناعي التوليدي لديه حواجز مُنخفضة للدخول

أدوات الذكاء الاصطناعي تُقلل من الحواجز أمام دخول الجرائم. يقوم مجرم الإنترنت بصياغة رسائل البريد الإلكتروني العشوائية ، وكتابة تعليمات برمجية ضارة ، وإنشاء روابط تصيد عن طريق استغلالها. فهو لا يحتاج حتى إلى خبرة تقنية. نظرًا لأن الذكاء الاصطناعي يصل بالفعل إلى مجموعات بيانات ضخمة ، فليس على المُستخدمين سوى خداعه لإنتاج معلومات ضارة وخطيرة.

لم تُصمم OpenAI مُطلقًا ChatGPT للأنشطة غير المشروعة. حتى أنَّ لديها مبادئ توجيهية ضدها. ومع ذلك ، تمكَّن المُحتالون على الفور تقريبًا من الحصول على برامج ضارة قام ChatGPT ببرمجتها وكتابة رسائل بريد إلكتروني للتصيد الاحتيالي.

بينما حلت OpenAI المُشكلة بسرعة ، فإنها تؤكد على أهمية تنظيم النظام وإدارة المخاطر. ينضج الذكاء الاصطناعي بشكل أسرع مما توقعه أي شخص. حتى قادة التكنولوجيا قلقون من أنَّ هذه التقنية المُتقدمة يُمكن أن تسبب أضرارًا جسيمة إذا وقعت في الأيدي الخطأ. تحقق من الطرق التي سيُغيِّر بها الذكاء الاصطناعي التوليدي سوق العمل.

6. لا يزال الذكاء الاصطناعي يتطور

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

لا يزال الذكاء الاصطناعي يتطور. بينما يعود استخدام الذكاء الاصطناعي في علم التحكم الآلي إلى عام 1940 ، لم تظهر أنظمة تعلم الآلة الحديثة ونماذج اللغة إلا مُؤخرًا. لا يُمكنك مقارنتها بالتطبيقات الأولى للذكاء الاصطناعي. حتى الأدوات المُتقدمة نسبيًا مثل Siri و Alexa تبدو ضعيفة بالمقارنة مع روبوتات الدردشة التي تعمل بنماذج LLM.

على الرغم من أنها قد تكون مُبتكرة ، إلا أن الميزات التجريبية تخلق أيضًا مشكلات جديدة. تتراوح الحوادث البارزة مع تقنيات تعلم الآلة من Google SERPs المعيبة إلى روبوتات الدردشة المُتحيزة التي تُقدم الإهانات العرقية.

بالطبع ، يُمكن للمطورين إصلاح هذه المشكلات. فقط لاحظ أنَّ المُحتالين لن يترددوا في استغلال الأخطاء التي تبدو غير ضارة — فبعض الأضرار لا رجعة فيها. لذا كن حذرًا عند استكشاف منصات جديدة.

7. لا يفهم الكثيرون الذكاء الاصطناعي حتى الآن

بينما يتمتع عامة الناس بإمكانية الوصول إلى نماذج وأنظمة لغوية مُعقَّدة ، إلا أنَّ القليل منهم فقط يعرفون كيفية عملها. يجب على المُستخدمين التوقف عن معاملة الذكاء الاصطناعي كلعبة. نفس روبوتات الدردشة التي تُولد ميمات الإنترنت وتُجيب على أسئلة المسابقات تقوم أيضًا ببرمجة الفيروسات والمساعدة في نشر البرامج الضارة.

لسوء الحظ ، فإنَّ التدريب المركزي للذكاء الاصطناعي غير واقعي. يُركز قادة الشركات التكنولوجية العالمية على إصدار أنظمة مدفوعة بالذكاء الاصطناعي ، وليس موارد تعليمية مجانية. نتيجة لذلك ، يحصل المستخدمون على إمكانية الوصول إلى أدوات قوية وُمتقدمة بالكاد يفهمونها. لا يُمكن للجمهور مواكبة سباق الذكاء الاصطناعي.

خذ ChatGPT كمثال. يُسيء مجرم الإنترنت من خلال الإستفادة من شعبيته لخداع الضحايا بتثبيت برامج تجسس مُتخفية على هيئة تطبيقات ChatGPT. والتي لا يأتي أي منها من OpenAI. تحقق من هل التطبيقات الخارجية وإضافات المُتصفح لـ ChatGPT آمنة؟

الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا - الذكاء الاصطناعي

8. قراصنة القبعة السوداء لديهم المزيد لكسبه من القراصنة الأخلاقيين

عادةً ما يتمكن قراصنة القبعة السوداء من الربح أكثر من القراصنة الأخلاقيين. نعم ، تحديات الاختبار لقادة التكنولوجيا يُؤتي ثماره جيدًا ، ولكن نسبة مئوية فقط من مُحترفي الأمن السيبراني يحصلون على هذه الوظائف. مُعظمهم يعملون لحسابهم الخاص عبر الإنترنت. تدفع منصات مثل HackerOne و Bugcrowd بضع مئات من الدولارات مقابل التعرف على الأخطاء الشائعة.

بدلاً من ذلك ، يربح المُحتالون عشرات الآلاف من خلال استغلال انعدام الأمن. قد يبتزون الشركات عن طريق تسريب البيانات السرية أو ارتكاب سرقة معلومات التعريف الشخصية (PII).

يجب على كل شركة ، صغيرة كانت أم كبيرة ، أن تُنفذ أنظمة الذكاء الاصطناعي بشكل صحيح. خلافًا للاعتقاد الشائع ، يتجاوز المُتسللون الشركات التقنية الناشئة والشركات الصغيرة والمتوسطة. تضمنت بعض أكثر انتهاكات البيانات التاريخية في العقد الماضي Facebook و Yahoo! وحتى حكومة الولايات المتحدة. تحقق من الطرق التي يمكن أن يُساعد بها الذكاء الاصطناعي مُجرمي الإنترنت.

احم نفسك من المخاطر الأمنية للذكاء الاصطناعي

بالنظر إلى هذه النقاط ، هل يجب تجنب الذكاء الاصطناعي تمامًا؟ بالطبع لا. الذكاء الاصطناعي غير أخلاقي بطبيعته ؛ تنبع جميع المخاطر الأمنية من الأشخاص الذين يستخدمونه بالفعل. وسيجدون طرقًا لاستغلال أنظمة الذكاء الاصطناعي بغض النظر عن مدى تطورها.

بدلاً من الخوف من تهديدات الأمن السيبراني التي تأتي مع الذكاء الاصطناعي ، افهم كيف يُمكنك منعها. لا تقلق: الإجراءات الأمنية البسيطة تقطع شوطًا طويلاً. إنَّ البقاء حذرًا من تطبيقات الذكاء الاصطناعي المشبوهة ، وتجنب الارتباطات التشعبية الغريبة ، وعرض محتوى الذكاء الاصطناعي بتشكيك يُكافح بالفعل العديد من المخاطر. يُمكنك الإطلاع الآن على هل استخدام الذكاء الاصطناعي في الأمن السيبراني يجعل العالم أكثر أمانًا؟

زر الذهاب إلى الأعلى