استخدام الذكاء الاصطناعي في شن هجمات إلكترونية واسعة النطاق
تتصدر روبوتات الدردشة الكبيرة المشهد، مثل ChatGPT-5 من OpenAI، و Gemini من Google، بالإضافة إلى
Claude عادةً ما تتصدر عناوين الأخبار بسبب آخر التحديثات التي يقدمها. لكن هذا الأسبوع كان مختلفًا.
فأولاً، تواجه OpenAI انتقادات حادة بسبب مخاوف تتعلق بالسلامة، والآن تقرير جديد من Anthropic يكشف أن أحد المخترقين استخدم مساعد الذكاء الاصطناعي في كتابة الأكواد لأتمتة كل خطوة تقريبًا في سلسلة جرائم إلكترونية واسعة النطاق، ووُصِف الأمر بأنه “غير مسبوق”.
استهدفت العملية ما لا يقل عن 17 مؤسسة في قطاعات الرعاية الصحية والحكومة وخدمات الطوارئ وحتى المؤسسات الدينية.
باستخدام Claude Code، أداة كتابة الأكواد المدعومة بالذكاء الاصطناعي من Anthropic، تعامل المهاجم مع كل شيء بدءًا من فحص الثغرات الأمنية وصولًا إلى كتابة برامج الفدية، وحساب مبالغ الفدية، وحتى صياغة رسائل الابتزاز المصقولة.
كيف نفّذ المخترق ذلك؟
يشير تقرير Anthropic إلى أن الجهة الخبيثة – المعروفة بـ GTG-5004 – استخدمت Claude للاستعانة بمصادر خارجية للهجوم بأكمله. المهام التي كانت تتطلب في السابق مهارات تقنية متعمقة أصبحت الآن تُنجز بواسطة الذكاء الاصطناعي في دقائق.
إليك ما فعله المخترق:
- الاستطلاع: ساعد Claude في تحديد الأنظمة الضعيفة ونقاط الدخول القابلة للاستغلال.
- إنشاء البرامج الضارة: قام الذكاء الاصطناعي بإنشاء تعليمات برمجية خبيثة وحزمها في مجموعات برامج فدية.
- إعداد الابتزاز: قام بصياغة رسائل الفدية والتعامل مع حسابات دفع العملات المشفرة.
- الأتمتة على نطاق واسع: قام النظام بتبسيط الهجمات عبر أهداف متعددة في وقت واحد.
أكدت Anthropic أن طلبات الفدية تجاوزت في مرحلة ما 500,000 دولار.
ما الذي يميز هذه الحادثة؟
مجرمو الإنترنت يستخدمون الأتمتة منذ سنوات، ولكن هذه الحالة توضح كيف أن الذكاء الاصطناعي يقلل من العوائق أمام الهجمات المتطورة. لم تعد بحاجة إلى مهارات اختراق نخبوية لتنفيذ خروقات واسعة النطاق؛ ولا حتى مهارات البرمجة ضرورية عندما يكون لديك أداة الذكاء الاصطناعي المناسبة.
هذا يعني أيضًا أن رسائل التصيد الاحتيالي، و مطالب برامج الفدية و عمليات الاحتيال التي تصل إلى صندوق الوارد الخاص بك أصبحت أكثر ذكاءً، وأكثر صقلًا و أصعب في اكتشافها. حتى أن رسائل البريد الإلكتروني المزيفة
generated by AI يمكن أن تبدو مطابقة تمامًا لتلك الواردة من البنك الذي تتعامل معه، أو مكان عملك، أو حتى أحد أفراد عائلتك الموثوق بهم.
ما الذي تفعله Anthropic حيال ذلك؟
تقول Anthropic إنها أغلقت الحسابات المتورطة ونشرت ضمانات جديدة لمنع هذا النوع من سوء الاستخدام في المستقبل. كما قامت الشركة بنشر أدوات الكشف وتبادلت مؤشرات الاختراق مع سلطات الأمن السيبراني.
لكن العديد من الأصوات في الصناعة تحذر من أن هذه قد تكون مجرد البداية. مع ازدياد تطور أدوات الذكاء الاصطناعي المتقدمة وسهولة الوصول إليها، سنشهد بلا شك المزيد من الحوادث المشابهة لهذه الحادثة؛ وستكون أسرع وأكثر قابلية للتوسع وأصعب بكثير في الإيقاف.
كيف تحمي نفسك؟
على الرغم من أن الشركات هي الهدف الرئيسي في هذه الحالة، إلا أنه يجب عليك اتخاذ احتياطات إضافية:
- كن متشككًا في رسائل البريد الإلكتروني والروابط، خاصة تلك التي تطلب معلومات شخصية أو مدفوعات.
- استخدم كلمات مرور قوية وفريدة، وقم بتمكين المصادقة الثنائية كلما أمكن ذلك.
- حافظ على تحديث أجهزتك لتصحيح الثغرات الأمنية.
- انتبه إلى العروض التي “تبدو جيدة جدًا لدرجة يصعب تصديقها” أو مطالبات تسجيل الدخول غير المتوقعة، حيث أن العديد منها عبارة عن عمليات احتيال تم إنشاؤها بواسطة الذكاء الاصطناعي.
الذكاء الاصطناعي يجعل المتسللين أكثر إنتاجية
يسلط هذا الهجوم الضوء على واقع جديد: الذكاء الاصطناعي لا يساعدنا فقط على العمل بذكاء أكبر – بل يساعد المتسللين على أن يصبحوا أكثر ذكاءً أيضًا. ما وصفته Anthropic بأنه حادث “غير مسبوق” اليوم يمكن أن يصبح قريبًا هو القاعدة حيث يلجأ المزيد من مجرمي الإنترنت إلى الذكاء الاصطناعي للسرعة والنطاق.