الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي

وجوب وجود لوائح مُخصصة لتنظيم تقنيات الذكاء الاصطناعي هي فكرة شائعة. تُوافق معظم الحكومات ومُطوري منتجات الذكاء الاصطناعي وحتى المُستخدمين العاديين عليها. لسوء الحظ ، فإنَّ أفضل طريقة لتنظيم هذا المجال سريع النمو هي لغز لم يتم بعد التوصل إلى حلٍ له.

إذا تُركت تقنيات الذكاء الاصطناعي دون رادع ، فيُمكن أن تُؤثر بشكل سلبي على أسلوب حياتنا وتُهدد وجودنا. ولكن كيف يُمكن للحكومات أن تتنقل في متاهة التحديات التي تأتي مع هذا المجال سريع التطور وتُواجه العقبات التي تنتظرها؟ تحقق من الإنسانية مُعرضة لخطر الانقراض بسبب الذكاء الاصطناعي - كيف يُمكن إيقافه؟

الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي - الذكاء الاصطناعي

1. لوائح خصوصية البيانات وحمايتها

الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي - الذكاء الاصطناعي

تُعد خصوصية البيانات وأمنها أحد الاهتمامات الأساسية لتقنيات الذكاء الاصطناعي. أنظمة الذكاء الاصطناعي هي نماذج مُتعطشة للوصول إلى مُختلف البيانات. حيث تحتاج إلى البيانات من أجل تقديم الردود المُناسبة وإتمام مُختلف المهام ، ولأن تكون فعالةً ، ومن أجل تحسين قدراتها. في حين أنَّ هذه ليست مشكلة ظاهريًا ، فإنَّ الطريقة التي يتم بها الحصول على هذه البيانات ، وطبيعتها ، وكيفية معالجتها وتخزينها هي واحدة من أكبر نقاط النقاش المُحيطة بلوائح الذكاء الاصطناعي.

بالنظر إلى ذلك ، فإنَّ المسار المنطقي الذي يجب اتخاذه هو وضع لوائح صارمة لخصوصية البيانات تحكم طريقة جمع البيانات وتخزينها ومُعالجتها ، فضلاً عن حقوق الأفراد — الذين تُستخدم بياناتهم — في كيفية التحكم فيها. الأسئلة التي من المحتمل أن تتناولها هذه اللوائح هي:

  1. ما نوع البيانات التي يُمكن جمعها؟
  2. هل يجب اعتبار بعض البيانات الخاصة من بين ما لا يجب الوصول إليه بواسطة الذكاء الاصطناعي؟
  3. كيف ينبغي لشركات الذكاء الاصطناعي التعامل مع البيانات الشخصية الحساسة ، مثل السجلات الصحية أو المعلومات البيومترية؟
  4. هل يتعين على شركات الذكاء الاصطناعي تنفيذ آليات تُمكِّن الأفراد من طلب حذف أو تصحيح بياناتهم الشخصية بسهولة؟
  5. ما هي العواقب المُترتبة على شركات الذكاء الاصطناعي التي لا تمتثل للوائح خصوصية البيانات؟ كيف يجب مراقبة الامتثال ، وكيف يجب ضمان التنفيذ؟
  6. ربما الأهم من ذلك ، ما هو المعيار الذي يجب أن تُطبقه شركات الذكاء الاصطناعي لضمان سلامة الطبيعة الحساسة للمعلومات التي تمتلكها؟

شكلت هذه الأسئلة وبعض الأسئلة الأخرى جوهر سبب حظر ChatGPT مؤقتًا في إيطاليا. ما لم تتم معالجة هذه المخاوف ، فقد يكون مجال الذكاء الاصطناعي بمثابة اللعنة لخصوصية البيانات ، وقد يتحول حظر إيطاليا إلى نموذج للحظر تتبناه دول أخرى في جميع أنحاء العالم. تحقق من بعض الخرافات الشائعة المُتعلقة بالذكاء الاصطناعي والتي هي غير صحيحة.

2. تطوير إطار عمل أخلاقي للذكاء الاصطناعي

الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي - الذكاء الاصطناعي

كثيرًا ما تتباهى شركات الذكاء الاصطناعي بالتزامها بالمبادئ التوجيهية الأخلاقية في تطوير أنظمة الذكاء الاصطناعي. على الأقل على الورق ، هي جميعًا من أنصار التطوير المسؤول والأخلاقي للذكاء الاصطناعي. في وسائل الإعلام ، شدد المسؤولون التنفيذيون في Google على كيفية تعامل الشركة مع سلامة وأخلاقيات الذكاء الاصطناعي على محمل الجد. وبالمثل ، فإنَّ “الذكاء الاصطناعي الآمن والأخلاقي” هو شعار للرئيس التنفيذي لشركة OpenAI ، سام التمان. والتي تُعتبر من الأمور الجديرة بالثناء جدًا.

لكن من الذي يضع القواعد؟ من الذي يُقرر أي المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي هي التي تُعتبر جيدة بما فيه الكفاية؟ من الذي يُقرر كيف يبدو عليه تطوير الذكاء الاصطناعي الآمن؟ في الوقت الحالي ، يبدو أنَّ لكل شركة ذكاء اصطناعي دورها الخاص في تطوير الذكاء الاصطناعي المسؤول والأخلاقي. OpenAI ، Anthropic ، Google ، Meta ، Microsoft ، الجميع. مجرد الاعتماد على شركات الذكاء الاصطناعي للقيام بالشيء الصحيح أمر خطير.

يمكن أن تكون عواقب مساحة الذكاء الاصطناعي غير الخاضعة للرقابة كارثية. السماح للشركات الفردية بتحديد المبادئ التوجيهية الأخلاقية التي يجب تبنيها وأيها يجب تجنبها هو أشبه بالسير أثناء النوم في طريق إلى نهاية العالم بسبب الذكاء الاصطناعي. الحل؟ إطار عمل أخلاقي واضح للذكاء الاصطناعي يضمن:

  1. أنظمة الذكاء الاصطناعي لا تضر أو تُميز بشكل غير عادل بين أفراد أو مجموعات معينة على أساس العرق أو الجنس أو الوضع الاجتماعي والاقتصادي.
  2. أنظمة الذكاء الاصطناعي آمنة وموثوقة ، وتُقلل من مخاطر العواقب غير المقصودة أو السلوك الضار.
  3. يتم تصميم أنظمة الذكاء الاصطناعي مع مراعاة التأثير المُجتمعي الأوسع لتقنيات الذكاء الاصطناعي.
  4. أن يحتفظ البشر بالسيطرة النهائية على أنظمة الذكاء الاصطناعي واتخاذ قراراتهم بشفافية.
  5. أنظمة الذكاء الاصطناعي مُقيَّدة عن قصد بطرق مُفيدة للبشر.

تحقق من الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا.

3. وكالة تنظيمية مُخصصة

الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي - الذكاء الاصطناعي

نظرًا لتأثيره المُحتمل على الحضارة البشرية ، فإنَّ النقاش حول أمان الذكاء الاصطناعي عادةً ما يكون موازياً لخطر حدوث أزمة صحية أو كارثة نووية. تطلب تجنب الحوادث النووية المُحتملة وكالة مُخصصة مثل NRC (هيئة التنظيم النووي) الأمريكية. بينما من أجل تجنب مخاطر الأزمات الصحية الخطيرة استلزم إنشاء إدارة الغذاء والدواء (FDA)

وبالمثل ، لضمان عدم حدوث أخطاء في مجال الذكاء الاصطناعي ، من الضروري وجود وكالة مُخصصة تشبه إدارة الغذاء والدواء ولجنة اللاجئين النرويجية ، حيث يواصل الذكاء الاصطناعي تحقيق تقدم قوي في جميع مجالات حياتنا. لسوء الحظ ، فإنَّ مسألة تنظيم الذكاء الاصطناعي داخل البلد هي مسألة صعبة. من المُرجح أن يكون عمل أي وكالة تنظيمية مُخصصة صعبًا للغاية دون تعاون عبر الحدود. تمامًا مثلما تحتاج لجنة التنظيم النووي الأمريكية (NRC) إلى العمل جنبًا إلى جنب مع الوكالة الدولية للطاقة الذرية (IAEA) لتكون في أفضل حالاتها ، فإنَّ أي وكالة تنظيمية مخصصة للذكاء الاصطناعي داخل البلد تحتاج أيضًا إلى نظير دولي.

ستكون هذه الوكالة مسؤولة عما يلي:

  1. تطوير أنظمة الذكاء الاصطناعي.
  2. ضمان الامتثال والإنفاذ.
  3. الإشراف على عملية المراجعة الأخلاقية لمشاريع الذكاء الاصطناعي.
  4. التعاون عبر الدول بشأن سلامة وأخلاقيات الذكاء الاصطناعي.

4. معالجة قضايا حق المؤلف والملكية الفكرية

الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي - الذكاء الاصطناعي

تنهار قوانين حقوق النشر والأطر القانونية الحالية في مواجهة الذكاء الاصطناعي. الطريقة التي يتم بها تصميم أدوات الذكاء الاصطناعي ، وخاصة أدوات الذكاء الاصطناعي التوليدي ، تجعلها تبدو وكأنها آلة لانتهاك حقوق النشر مُؤيدة علنًا ولا يمكنك فعل أي شيء حيالها.

كيف؟ حسنًا ، يتم تدريب العديد من أنظمة الذكاء الاصطناعي الحالية باستخدام مواد محمية بحقوق الطبع والنشر. كما تعلم ، المقالات المحمية بحقوق الطبع والنشر ، والأغاني المحمية بحقوق الطبع والنشر ، والصور المحمية بحقوق الطبع والنشر ، وما إلى ذلك. هكذا يُمكن لأدوات مثل ChatGPT و Bing AI و Google Bard القيام بالأشياء الرائعة التي تقوم بها.

في حين أن هذه الأنظمة تستفيد بوضوح من الملكية الفكرية للأشخاص ، فإن الطريقة التي تقوم بها أنظمة الذكاء الاصطناعي هذه لا تختلف عن قراءة الإنسان لكتاب محمي بحقوق الطبع والنشر ، أو الاستماع إلى الأغاني المحمية بحقوق الطبع والنشر ، أو النظر إلى الصور المحمية بحقوق الطبع والنشر.

يُمكنك قراءة كتاب محمي بحقوق الطبع والنشر ، ومعرفة حقائق جديدة منه ، واستخدام هذه الحقائق كأساس لكتابك الخاص. يمكنك أيضًا الاستماع إلى أغنية محمية بحقوق الطبع والنشر للحصول على الإلهام لإنشاء الموسيقى الخاصة بك. في كل الحالات ، استخدمت مواد محمية بحقوق الطبع والنشر ، لكن هذا لا يعني بالضرورة أن المنتج المشتق ينتهك حقوق الطبع والنشر للأصل.

في حين أن هذا تفسير منطقي لتفسير الفوضى التي تسببها تقنيات الذكاء الاصطناعي لقوانين حقوق النشر ، إلا أنها لا تزال تؤذي مالكي حقوق النشر والملكية الفكرية. بالنظر إلى ذلك ، فإن اللوائح ضرورية من أجل:

  1. التحديد بوضوح مسؤولية ومسؤوليات جميع الأطراف المشاركة في دورة حياة نظام الذكاء الاصطناعي. يتضمن ذلك توضيح أدوار كل طرف ، من مطوري الذكاء الاصطناعي إلى المُستخدمين النهائيين ، لضمان مساءلة الأطراف المسؤولة عن أي انتهاك لحقوق النشر أو أي انتهاكات للملكية الفكرية ترتكبها أنظمة الذكاء الاصطناعي.
  2. تعزيز أطر حقوق النشر الحالية وربما إدخال قوانين خاصة بحقوق النشر للذكاء الاصطناعي.
  3. لضمان الابتكار في مجال الذكاء الاصطناعي مع حماية حقوق المبدعين الأصليين ، يجب أن تعيد لوائح الذكاء الاصطناعي تعريف مفاهيم الاستخدام العادل والعمل التحويلي في سياق المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. هناك حاجة إلى تعريفات وإرشادات أوضح لضمان أنَّ مساحة الذكاء الاصطناعي يمكن أن تستمر في التحسن مع احترام حدود حقوق النشر. من الضروري تحقيق التوازن بين الابتكار والحفاظ على حقوق منشئي المحتوى.
  4. مسارات واضحة للتعاون مع أصحاب الحقوق. إذا كانت أنظمة الذكاء الاصطناعي ستستخدم الملكية الفكرية للأشخاص على أي حال ، فيجب أن تكون هناك مسارات أو أطر عمل واضحة لمطوري الذكاء الاصطناعي وأصحاب الحقوق للتعاون ، خاصة فيما يتعلق بالتعويضات المالية ، إذا تم تسويق العمل المشتق لهذه الملكية الفكرية.

تحقق من من يملك حق المؤلف لإبداعات الذكاء الاصطناعي؟ كيف تعمل حقوق الطبع والنشر لهذه الأعمال الفنية؟

تنظيم الذكاء الاصطناعي هو الإصلاح الذي تمس الحاجة إليه

بينما ظهر الذكاء الاصطناعي كحل واعد للعديد من مشاكلنا المُجتمعية ، أصبح الذكاء الاصطناعي نفسه بسرعة مشكلة تحتاج إلى حل عاجل. حان الوقت للتراجع والتأمل وإجراء الإصلاحات اللازمة لضمان التأثير الإيجابي للذكاء الاصطناعي على المجتمع. نحن بحاجة ماسة إلى إعادة تقويم عاجلة لنهجنا في بناء واستخدام أنظمة الذكاء الاصطناعي. يُمكنك الإطلاع الآن على العوامل الرئيسية التي يجب مراعاتها عند اختبار روبوتات الدردشة بالذكاء الاصطناعي للتأكد من دقتها.

زر الذهاب إلى الأعلى