المخاطر الرئيسية لتقنية التزييف العميق وكيفية اكتشافها

في عالم ترتبط فيه هويتك عبر الإنترنت مباشرةً ، فإن احتمال التكرار المثالي لشكلك أمر مُقلق. ولكن هذا هو بالضبط ما نُواجهه مع ظهور تقنية التزييف العميق.

نظرًا لأن التكنولوجيا أصبحت أرخص وأسهل في الاستخدام ، ما هي مخاطر تقنية التزييف العميق (Deepfakes)؟ علاوة على ذلك ، كيف يُمكنك اكتشاف التزييف العميق مقارنةً بالصفقة الحقيقية؟

المخاطر الرئيسية لتقنية التزييف العميق وكيفية اكتشافها - مقالات

ما هي التزييف العميق؟

التزييف العميق (Deepfakes) هو المُصطلح الذي يُطلق على الوسائط أين يتم استبدال شخص في الفيديو أو الصورة بمظهر شخص آخر. المصطلح عبارة عن مزيج من “التعلم العميق” و “المزيف” ويستخدم خوارزميات التعلم الآلي والذكاء الاصطناعي لإنشاء وسائط تبدو واقعية بشكل مثالي ولكنها مُصطنعة.

في أبسط صورها ، قد تجد وجهًا متراكبًا على نموذج آخر. في أسوأ حالاتها سريعة التطور ، تعمل تقنية التزييف العميق على دمج الضحايا غير المُرتابين في مقاطع فيديو إباحية مزيفة وأخبار مزيفة وخدع وغير ذلك.

ما هي مخاطر التزييف العميق؟

الصور المزيفة موجودة دائمًا. يعد اكتشاف ما هو مزيف وما هو غير ذلك جزءًا شائعًا من الحياة ، خاصة بعد ظهور الوسائط الرقمية. لكن المشكلات التي تخلقها تقنية التزييف العميق مُختلفة ، مما يُوفر دقة لا مثيل لها للصور المزيفة ومقاطع الفيديو المُعاد إنتاجها.

من أول فيديوهات التزييف العميق التي وصلت إلى جمهور أوسع كان “جوردان بيل” الذي انتحل شخصية “باراك أوباما” في مقطع فيديو يُناقش القضية المطروحة:

يبدو الفيديو فظًا ، مع صوت غريب وبعض النتؤات على الوجه المُستنسخ. ومع ذلك ، فإنه يُوضح تقنية التزييف العميق.

أو هل تساءلت يومًا كيف سيكون الأمر لو لعب “ويل سميث” دور نيو في The Matrix بدلاً من “ريفز كيانو ” (أعني ، من لم يفعل؟!)؟ أتساءل لا أكثر:

مقاطع الفيديو هذه ليست ضارة ، حيث يستغرق تجميعهما مئات الساعات من التعلم الآلي. لكن التكنولوجيا نفسها متاحة لأي شخص لديه وقت كافٍ للتعلم وقوة الحوسبة التي تتماشى معها. كان العائق أمام استخدام تقنية التزييف العميق مرتفعًا جدًا في البداية. ولكن مع تحسن التكنولوجيا وانخفاض الحواجز التي تحول دون الدخول بشكل كبير ، بدء الكثير من الأشخاص في استخدام التزييف العميق في الكثير من الأمور السلبية والضارة.

قبل الخوض في الجانب المظلم من تقنية التزييف العميق ، إليك “جيم كاري” الذي حل محل “جاك نيكلسون” في The Shining:

المخاطر الرئيسية لتقنية التزييف العميق وكيفية اكتشافها - مقالات

1. المواد الإباحية المُزيفة لعددٍ من المشاهير

واحدة من التهديدات الرئيسية من تقنية التزييف العميق هي في المجال الإباحي ، أو المواد الإباحية المزيفة كما هو معروف. هناك عشرات الآلاف من مقاطع الفيديو المُزيفة والتي تعرض وجوه مشاهير نساء مثل “إيما واتسون” و “ناتالي بورتمان” و “تايلور سويفت”.

تستخدم جميعها خوارزميات التعلم الآلي المُزيفة لتقطيع وجه المشاهير على جسد ممثلة ، وكلها تجتذب عشرات الملايين من المشاهدات عبر العديد من مواقع الويب الخاصة بالمُحتوى للبالغين.

ومع ذلك ، لا تفعل أي من مواقع الويب هذه أي شيء بشأن التزييف العميق للمشاهير.

  كيف تعمل بطاريات الحالة الصلبة وهل هي بهذه الكفاءة؟

يقول جورجيو باتريني ، الرئيس التنفيذي وكبير العلماء في شركة “سينسيتي” ، وهي شركة للكشف عن الزيف العميق والتحليل: “إلى أن يكون هناك سبب قوي لمحاولة إزالتها وتصفيتها ، فلن يحدث شيء”. “سيظل الأشخاص أحرارًا في تحميل هذا النوع من المواد دون أي عواقب على مواقع الويب هذه التي يشاهدها مئات الملايين من الأشخاص”.

تعتبر مقاطع الفيديو استغلالية وبعيدة عن كونها خالية من الضحايا ، كما يزعم بعض مُنشئي المحتوى التزييف العميق.

2. المواد الإباحية المُزيفة التي تمس الأشخاص العاديين

ما هو أسوأ من المواد الإباحية الوهمية التي تُظهر المشاهير؟ هذا صحيح: المواد الإباحية المُزيفة التي تُظهر النساء ذوات الشهرة الأقل أو غير المُتوقعات لما يحصل من حولهن واللواتي يُمكن أن تتعرض حياتهن للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل. كشفت دراسة “سينسيتي” عن روبوت يستخدم تقنية التزييف العميق على تطبيق المراسلة الاجتماعية Telegram ، والذي أنشأ أكثر من 100.000 صورة عارية مزيفة. تمت سرقة العديد من الصور من حسابات شبكات التواصل الاجتماعي ، والتي تضم أصدقاء ، وصديقات ، وزوجات ، وأمهات ، إلخ.

يُعد الروبوت تقدمًا كبيرًا في تقنية التزييف العميق ، حيث لا يحتاج روبوت تحميل الصور إلى المعرفة الحالية بالتزييف العميق أو التعلم الآلي أو الذكاء الاصطناعي. إنها عملية آلية تتطلب صورة واحدة. علاوة على ذلك ، يبدو أن Telegram bot يعمل فقط مع صور النساء ، كما أن الاشتراكات المُتميزة (المزيد من الصور ، والعلامة المائية التي تمت إزالتها) رخيصة للغاية.

مثل صور التزييف العميق للمشاهير ، فإن صور التزييف العميق في Telegram bot هي عبارة عن استغلال وإساءة وغير أخلاقية. يُمكنها بسهولة الوصول إلى البريد الوارد للزوج أو الشريك أو أحد أفراد الأسرة أو أحد الزملاء أو صاحب العمل ، مما قد يؤدي إلى تدمير الحياة في هذه العملية. إن احتمال الابتزاز وغيره من أشكال الابتزاز مُرتفع للغاية ويزيد من التهديد من القضايا القائمة ، مثل الانتقام الإباحي.

يؤدي نشر التزييف العميق على Telegram إلى مشكلة أخرى أيضًا. Telegram هي خدمة مراسلة تُركز على الخصوصية ولا تتداخل كثيرًا مع مستخدميها. لديها سياسة لإزالة الروبوتات الإباحية وغيرها من الروبوتات المتعلقة بمواد البالغين ولكنها لم تفعل شيئًا في هذه الحالة.

3. المواد الخادعة

لقد رأيتَ “جوردان بيل” يلعب دور أوباما. في هذا الفيديو ، هو يُحذر من مخاطر التزييف العميق. أحد المخاوف الرئيسية بشأن تقنية التزييف العميق هو أن يقوم شخص ما بإنشاء ونشر مقطع فيديو واقعي لدرجة أنه يؤدي إلى مأساة بشكل ما.

في أقصى حد من المقياس ، يقول بعض الأشخاص إن محتوى فيديو التزييف العميق يُمكن أن يُشعل حربًا. لكن هناك عواقب كبيرة أخرى أيضًا. على سبيل المثال ، قد يؤدي مقطع فيديو مزيف يظهر شركة كبرى أو مديرًا تنفيذيًا لبنك إلى بيان ضار إلى انهيار سوق الأسهم. مرة أخرى ، إنه مُتطرف. لكن يمكن للأشخاص الحقيقيين التحقق من مقطع الفيديو والتأكد من موثوقيته ، بينما تتفاعل الأسواق العالمية على الفور مع الأخبار ، وتحدث عمليات البيع الآلي.

  هل تحتاج سيارتك الكهربائية إلى إطارات شتوية؟

الشيء الآخر الذي يجب مراعاته هو الحجم. مع تزايد تكلفة إنشاء محتوى التزييف العميق ، فإنه يزيد من احتمالية وجود كميات هائلة من محتوى التزييف العميق لنفس الشخص ، مع التركيز على إرسال نفس الرسالة المزيفة بألوان مُختلفة وأماكن وأنماط وغير ذلك.

4. إنكار المواد الحقيقية

كإمتداد للمواد الخادعة والمزيفية ، يجب أن تفكر في أنَّ التزييف العميق سيصبح واقعيًا بشكل لا يصدق. لدرجة أن الناس سيبدأون في التساؤل عما إذا كان الفيديو حقيقيًا أم لا ، بغض النظر عن المحتوى.

إذا ارتكب شخص ما جريمة وكان الدليل الوحيد هو الفيديو ، فماذا يمنعهم من القول ، “إنه مزيف ، إنه دليل كاذب”؟ على العكس من ذلك ، ماذا عن زرع أدلة فيديو مُزيفة ليجدها شخص ما؟

5. قاده التفكير المُزيف والاتصالات الاجتماعية

كانت هناك بالفعل العديد من الحالات التي تنطوي على محتوى تزييف عميق يتظاهر بأنه قاده التفكير. توضح الملفات الشخصية على LinkedIn و Twitter بالتفصيل الأدوار رفيعة المستوى في المنظمات الإستراتيجية ، ومع ذلك فإن هؤلاء الشخصيات غير موجودة ومن المحتمل أن يتم إنشاؤها باستخدام تقنية التزييف العميق.

ومع ذلك ، فهذه ليست مشكلة خاصة بالتزييف العميق. منذ فجر التاريخ ، استخدمت الحكومات وشبكات التجسس والشركات ملفات شخصية وشخصيات مزيفة لجمع المعلومات ودفع الأجندات والتلاعب.

6. حيل الخداع والهندسة الاجتماعية وعمليات الاحتيال الأخرى

تُعتبر الهندسة الاجتماعية بالفعل مشكلة عندما يتعلق الأمر بالأمن. يُريد الناس أن يثقوا بالآخرين. إنَّ هذا في طبيعتنا. لكن هذه الثقة يمكن أن تؤدي إلى انتهاكات أمنية وسرقة البيانات وغير ذلك. غالبًا ما تتطلب الهندسة الاجتماعية اتصالًا شخصيًا ، سواء كان ذلك عبر الهاتف ، أو باستخدام مكالمة فيديو ، وما إلى ذلك.

لنفترض أن شخصًا ما يُمكنه استخدام تقنية التزييف العميق لتقليد مدير عمل للوصول إلى رموز الأمان أو غيرها من المعلومات الحساسة. في هذه الحالة ، قد يؤدي ذلك إلى طوفان من عمليات احتيال التزييف العميق.

كيف تتعرف وتكتشف التزييف العميق

مع زيادة جودة التزييف العميق ، من المهم اكتشاف طرق التزييف العميق. في الأيام الأولى ، كانت هناك بعض الحكايات البسيطة: الصور الباهتة ، وفساد الفيديو والنُتؤات ، وعيوب أخرى. ومع ذلك ، فإن هذه المشكلات المنبهة تتناقص بينما تنخفض تكلفة استخدام التكنولوجيا بسرعة.

لا توجد طريقة مثالية لاكتشاف محتوى التزييف العميق ، ولكن إليك أربع نصائح مفيدة:

  • التفاصيل. بقدر ما أصبحت تقنية التزييف العميق جيدة ، لا تزال هناك أجزاء صغيرة تكافح معها. على وجه الخصوص ، التفاصيل الدقيقة في مقاطع الفيديو ، مثل حركة الشعر وحركة العين وهياكل الخد والحركة أثناء الكلام وتعبيرات الوجه غير الطبيعية. حركة العين كبيرة. على الرغم من أن تقنية التزييف العميق يمكن أن تومض الآن بشكل فعال (في الأيام الأولى ، كان هذا بمثابة إشارة رئيسية) ، إلا أن حركة العين لا تزال تمثل مشكلة.
  • المشاعر. الارتباط بالتفاصيل هو العاطفة. إذا كان هناك شخص ما يدلي ببيان قوي ، فإن وجهه سيعرض مجموعة من المشاعر أثناء تقديم التفاصيل. لا يمكن أن تقدم تقنية التزييف العميق نفس عمق العاطفة مثل الشخص الحقيقي.
  • التناقض. جودة الفيديو في أعلى مستوياتها على الإطلاق. يمكن للهاتف الذكي الموجود في جيبك التسجيل والإرسال بدقة 4K. إذا أدلى زعيم سياسي ببيان ، فإنه أمام غرفة مليئة بمعدات التسجيل من الدرجة الأولى. لذلك ، فإن جودة التسجيل الرديئة ، المرئية والمسموعة ، تُعد تناقضًا ملحوظًا.
  • المصدر. هل يظهر الفيديو على منصة تم التحقق منها؟ تستخدم منصات شبكات التواصل الاجتماعي التحقق لضمان عدم تقليد الأشخاص المعروفين عالميًا. بالتأكيد ، هناك مشكلات في المنصات. لكن التحقق من مكان بث مقطع فيديو فاضح بشكل خاص أو يتم استضافته سيساعدك على معرفة ما إذا كان حقيقيًا أم لا. يمكنك أيضًا محاولة إجراء بحث عكسي عن الصور للكشف عن الأماكن الأخرى التي توجد بها الصورة على الإنترنت.
  المنازل الذكية والانتقال إلى بيت جديد: كل ما تحتاج إلى معرفته

أدوات لاكتشاف ومنع التزييف العميق

أنت لست وحدك في الكفاح ضد اكتشاف التزييف العميق. تعمل العديد من شركات التكنولوجيا الكبرى على تطوير أدوات لاكتشاف التزييف العميق ، بينما تتخذ منصات أخرى خطوات لمنع التزييف العميق بشكل دائم.

على سبيل المثال ، ستُحلل أداة اكتشاف التزييف العميق من Microsoft ، Microsoft Video Authenticator ، في غضون ثوان ، لإبلاغ المستخدم بأصالتها (راجع ملف GIF أدناه للحصول على مثال). في الوقت نفسه ، تُمكّنك Adobe من توقيع المحتوى رقميًا لحمايته من التلاعب.

لقد حظرت منصات مثل Facebook و Twitter بالفعل محتوى التزييف العميق الخبيث (لا يزال محتوى التزييف العميق مثل Will Smith في The Matrix لعبة عادلة) ، بينما تعمل Google على أداة تحليل تحويل النص إلى كلام لمواجهة المقتطفات الصوتية المزيفة.

التزييف العميق قادم — وهو يتحسن

حقيقة الأمر هي أنه منذ أن ظهرت تقنية التزييف العميق في الاتجاه السائد في عام 2018 ، فإن استخدامها الأساسي هو الإساءة إلى النساء. سواء كان ذلك من خلال إنشاء مواد إباحية مزيفة باستخدام وجه مشهور أو تجريد شخص ما من الملابس على شبكات التواصل الاجتماعي ، فإن كل هذا يركز على استغلال النساء والتلاعب بهن وإهانتهن حول العالم.

ليس هناك شك في أن تمرد التزييف العميق يلوح في الأفق. يُشكل صعود مثل هذه التكنولوجيا خطراً على الجمهور ، ومع ذلك لا يوجد ملجأ يُذكر لوقف مسيرتها إلى الأمام.

المصدر
Scroll to Top