استغلال نموذج Google Gemini في أغراض خبيثة: إمكانية اختراق أنظمة المنزل الذكي والتحكم بها

0

في الماضي، كانت أخبار الاختراق تتصدر العناوين الرئيسية، ولكنها أصبحت شائعة لدرجة أنها لم تعد تثير الدهشة لدى معظم الناس. ولا تكتسب هذه الأخبار زخمًا إلا عندما تحدث لشركة كبيرة وتؤثر على ملايين الأشخاص، كما حدث في حالة اختراق T-Mobile الذي أثر على 64 مليون عميل. نظرًا لوجود العديد من الطرق التي يمكن أن تتعرض فيها بياناتك للخطر، فإن كل نوع من الخدمات أو المنتجات الرقمية تقريبًا لديه إجراءات حماية لمنع ذلك.

جهاز Pixel Tablet موضوع على طاولة مع ترموستات Nest على الحائط في الخلفية.

بطبيعة الحال، هذه المنتجات ليست مثالية، وهناك دائمًا طرق لتنفيذ هجمات ضارة إذا كان المهاجم ذكيًا بما فيه الكفاية. ومع ظهور نماذج اللغات الكبيرة (LLMs) مثل Gemini من Google، هناك دائمًا احتمال أن تُستخدم أدوات الذكاء الاصطناعي هذه في أعمال مؤذية. على الرغم من أننا لم نشهد بعد شيئًا كبيرًا يتم الإبلاغ عنه، فقد سلطت Wired الضوء على مشروع بحثي يستخدم Gemini للوصول إلى حياتك بطرق لم تكن لتخطر ببالك. يوضح هذا البحث كيف يمكن استغلال Gemini للسيطرة على جوانب مختلفة من حياتك الرقمية، بما في ذلك ربما الأجهزة الذكية في منزلك، مما يثير مخاوف بشأن الأمن والخصوصية في عصر الذكاء الاصطناعي.

هذا النوع من الهجمات قد يصبح أكثر خطورة

كشف بن ناسي وستاف كوهين وأور يائير من جامعة تل أبيب عن مشروعهم “الدعوة هي كل ما تحتاجه” الذي يستخدم Gemini للوصول إلى منزل ذكي والتحكم فيه. والجزء المثير للاهتمام هو أن الهجوم لا يبدأ من داخل المنزل، بل يعتمد على منتج Google آخر غير ذي صلة لبدء العملية.

ببساطة، يتم تشغيل إجراء غير مرغوب فيه عندما يستخدم المستخدم Gemini مع مطالبة معينة. والذكاء في هذا كله يكمن في أنه شيء كامن ولا يمكن للمستخدم رؤيته. يشرح فريق البحث بالتفصيل كيف يعمل هذا، حيث تستخدم “promptware” نموذج لغة كبير (LLM) لتنفيذ أنشطة ضارة.

باستخدام “تسميم السياق قصير المدى” و “تسميم الذاكرة طويلة المدى”، وجد الباحثون أنه يمكنهم جعل Gemini ينفذ إجراءات لم تكن موجودة في الأصل في المطالبة. يمكن أن يؤدي هذا إلى حذف أحداث من تطبيقات Google المختلفة، أو فتح مكالمة Zoom، أو تسليم موقع المستخدم، أو التحكم في منتجات المنزل الذكي، وغير ذلك الكثير. هذا النوع من الهجمات، المعروف باسم “حقن المطالبات غير المباشر” (Indirect Prompt Injection)، يستغل نقاط الضعف في كيفية تفاعل نماذج اللغة الكبيرة مع البيانات الخارجية.

يعرض فريق البحث أيضًا كيف يعمل كل هذا من خلال مقاطع فيديو تعليمية مذهلة. إنها طريقة بسيطة وفعالة لإحداث فوضى في حياة شخص ما دون علمه. يركز الناس بشكل أكبر على الطرق التقليدية للاختراق، مما يعني أن شيئًا كهذا قد يكون غير متوقع للغاية.

لحسن الحظ، أبلغ فريق البحث عن هذه المشكلات إلى Google في فبراير، والتقى أيضًا بالفريق من أجل إصلاح هذه المشكلات. تشارك Google أنها “نشرت دفاعات متعددة الطبقات، بما في ذلك: تأكيدات المستخدم المحسنة للإجراءات الحساسة؛ معالجة قوية لعناوين URL مع التعقيم وسياسات مستوى الثقة؛ واكتشاف متقدم لحقن المطالبات باستخدام مصنفات المحتوى.”

يسلط المشروع الضوء على “تقنيات حقن المطالبات غير المباشرة النظرية التي تؤثر على المساعدين المدعومين بنماذج لغوية كبيرة”، والتي قد تصبح أكثر شيوعًا في المستقبل القريب مع ازدياد تعقيد أدوات الذكاء الاصطناعي. هذا شيء في مهده أيضًا، وسيحتاج إلى مراقبة أفضل لمنعه من التسبب في أضرار أكثر خطورة في المستقبل. مع تزايد اعتمادنا على الذكاء الاصطناعي في حياتنا اليومية، يصبح فهم هذه المخاطر المحتملة والتخفيف من حدتها أمرًا بالغ الأهمية.

إذا كنت شخصًا مهتمًا بالثغرات الأمنية، فيمكنك دائمًا إرسال ما تجده إلى Google من خلال برنامج Bug Hunters الخاص بها. هناك مجموعة متنوعة من الطرق للمساهمة، حيث أن الذكاء الاصطناعي ليس سوى جزء صغير مما تتم مراقبته حاليًا. إذا كان هناك شيء أكثر خطورة، فإن Google تقدم أيضًا مكافأة لعملك، مما يجعل الجهد أكثر جدوى.

Leave A Reply

Your email address will not be published.