الإنسانية مُعرضة لخطر الانقراض بسبب الذكاء الاصطناعي - كيف يُمكن إيقافه؟

مرة أخرى ، حذرت مجموعة من الباحثين البارزين والخبراء في مجال الذكاء الاصطناعي وشركات التكنولوجيا من أنَّ التطور السريع الحالي للذكاء الاصطناعي قد يتسبب في كارثة للبشرية.

تشمل المخاطر النزاعات النووية والمرض والمعلومات المُضللة والذكاء الاصطناعي الجامح الذي يفتقر إلى الرقابة ، وكلها تُشكل تهديدًا مباشرًا لبقاء الإنسان. تحقق من ما هي مشكلة زيادة مشابك الورق وما علاقتها بالذكاء الاصطناعي؟

الإنسانية مُعرضة لخطر الانقراض بسبب الذكاء الاصطناعي - كيف يُمكن إيقافه؟ - الذكاء الاصطناعي

لكن لن يغيب عن بالنا أنَّ العديد من هذه التحذيرات تأتي من نفس الأشخاص الذين يقودون تطوير الذكاء الاصطناعي ويدفعون أدوات وبرامج الذكاء الاصطناعي في شركاتهم.

لماذا تُحذر شركات التكنولوجيا والخبراء من مخاطر الذكاء الاصطناعي؟

في 30 مايو 2023 ، أصدر أكثر من 350 باحثًا ومُطورًا ومُهندسًا في مجال الذكاء الاصطناعي بيانًا موحدًا يتم فيه التحذير من تهديد الذكاء الاصطناعي للبشرية.

يجب أن يكون التخفيف من خطر الانقراض الذي يُواجه البشرية جرّاء الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.

من الأشخاص المُوقعين على بيان Safe.ai سام ألتمان الرئيس التنفيذي لشركة OpenAI ، وديميس هاسابيس الرئيس التنفيذي لشركة Google DeepMind ، وداريو أمودي الرئيس التنفيذي لشركة Anthropic ، جنبًا إلى جنب مع الفائزين بجائزة تورينج جيفري هينتون ويوشوا بنجيو (على الرغم من أنَّ يان ليكون ، الذي فاز أيضًا بالجائزة نفسها ، أهمل التوقيع ). القائمة تقريبًا عبارة عن من هم في عالم تطوير الذكاء الاصطناعي — الأشخاص الذين يقودون الطريق لبدء استخدام الذكاء الاصطناعي — ولكن ها هم يجتمعون جميعًا ، مُحذرين من أنَّ الذكاء الاصطناعي يُمكن أن يتسبب في كارثة للبشرية.

إنه بيان قصير يُوضح التهديدات ، ويُشير على وجه التحديد إلى مجالين رئيسيين يُمكن أن يهددا العالم كما نعرفه: الحرب النووية وقضايا الصحة العالمية. في حين أنَّ تهديد الصراع النووي هو مصدر قلق ، فإن خطر حدوث جائحة يمثل تهديدًا ملموسًا أكثر بالنسبة لمعظم الأشخاص.

ومع ذلك ، فإنه ليس مجرد جائحة عالمية يُمكن أن تُسبب مشاكل صحية مُتعلقة بالذكاء الاصطناعي. أبلغت صحيفة الغارديان عن العديد من المشكلات الصحية الأخرى المتعلقة بالذكاء الاصطناعي التي يُمكن أن تؤثر على البشر إذا لم يتم فحصها قبل الاستخدام الواسع النطاق له. يتعلق أحد الأمثلة باستخدام أجهزة قياس التأكسج التي تعمل بالذكاء الاصطناعي والتي “بالغت في تقدير مستويات الأكسجين في الدم لدى المرضى ذوي البشرة الداكنة ، مما أدى إلى سوء معالجة نقص الأكسجة لديهم”.

علاوة على ذلك ، ليست هذه هي المرة الأولى التي تُطالب فيها مجموعة من قادة التكنولوجيا بوقف مُؤقت أو إعادة تقييم جادة لتطوير الذكاء الاصطناعي. في مارس 2023 ، وقع إيلون ماسك وباحثون آخرون في مجال الذكاء الاصطناعي على دعوة مماثلة تحث المستخدم على اتخاذ إجراء يطلب فيها وقف تطوير الذكاء الاصطناعي حتى يتم تنفيذ المزيد من اللوائح للمساعدة في توجيه العملية. تحقق من هل يتعلم ChatGPT من مُحادثات المستخدم؟

ما هي مخاطر الذكاء الاصطناعي؟

ترتبط معظم المخاطر المُرتبطة بالذكاء الاصطناعي ، على الأقل في هذا السياق ، بتطوير تقنية الذكاء الاصطناعي الجامحة التي تتجاوز قدرات البشر ، والتي تُشغِّل في النهاية مُنشئها وتُزيل الحياة كما نعرفها. إنها قصة تمت تغطيتها مرات لا تحصى في كتب الخيال العلمي ، لكن الواقع الآن أقرب مما نعتقد.

تتزايد قدرات نماذج اللغات الكبيرة (التي تدعم أدوات مثل ChatGPT) بشكل كبير. ومع ذلك ، فإنَّ أدوات مثل ChatGPT لديها العديد من المشكلات ، مثل التحيز المتأصل ، ومخاوف الخصوصية ، وهلوسة الذكاء الاصطناعي ، ناهيك عن قدرتها على كسر الحماية للعمل خارج حدود الشروط والأحكام المبرمجة.

مع زيادة نماذج اللغة الكبيرة بالإضافة إلى أنَّ لديها المزيد من نقاط البيانات التي يجب الاتصال بها ، إلى جانب الوصول إلى الإنترنت وفهم أكبر للأحداث الجارية ، يخشى باحثو الذكاء الاصطناعي أن يحدث يومًا ما ، على حد تعبير الرئيس التنفيذي لشركة OpenAI ، “أن تسوء الأمور”.

كيف تُنظم الحكومات تطوير الذكاء الاصطناعي لوقف المخاطر؟

تنظيم الذكاء الاصطناعي هو المفتاح لمنع المخاطر. في أوائل مايو 2023 ، دعا سام ألتمان إلى مزيد من التنظيم للذكاء الاصطناعي ، مُشيرًا إلى أنَّ “التدخل التنظيمي من قبل الحكومات سيكون حاسمًا للتخفيف من مخاطر النماذج مُتزايدة القوة”.

بعد ذلك ، أعلن الاتحاد الأوروبي عن قانون الذكاء الاصطناعي ، وهو لائحة مُصممة لتوفير إطار أقوى بكثير لتطوير الذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي (مع انتشار العديد من اللوائح في ولايات قضائية أخرى). هدد ألتمان في البداية بسحب شركة OpenAI من الاتحاد الأوروبي ، لكنه تراجع بعد ذلك عن تهديده ووافق على أن تلتزم الشركة بلائحة الذكاء الاصطناعي التي طلبها سابقًا.

بغض النظر ، من الواضح أن تنظيم تطوير واستخدامات الذكاء الاصطناعي مُهم. تحقق من هل سيتحول ChatGPT إلى تهديد للأمن السيبراني؟ إليك ما يجب الانتباه إليه.

هل سيقضي الذكاء الاصطناعي على الإنسانية؟

نظرًا لأنَّ الكثير من النقاش حول هذا الموضوع مبني على افتراضات حول قوة الإصدارات المُستقبلية من الذكاء الاصطناعي ، فهناك مشكلات حول طول العمر والقوة التي يمكن أن يتمتع بها أي تنظيم للذكاء الاصطناعي. ما هي أفضل السبل لتنظيم صناعة تتحرك بالفعل بسرعة كبيرة وتُحدث اختراقات في التطوير يوميًا؟

علاوة على ذلك ، لا يزال هناك بعض الشك حول قدرات الذكاء الاصطناعي بشكل عام وأين سينتهي الأمر. في حين أنَّ كل من يخشى الأسوأ يُشير إلى أنَّ الذكاء الاصطناعي العام أصبح ملكًا بشريًا ، يُشير آخرون إلى حقيقة أنَّ الإصدارات الحالية من الذكاء الاصطناعي لا يُمكنها حتى إجراء ردود على أسئلة حسابية أساسية وأنَّ السيارات ذاتية القيادة لا تزال بعيدة المنال.

من الصعب عدم الاتفاق مع كل من يتطلع إلى المُستقبل. كثير من الأشخاص الذين يصرخون بصوت عالٍ حول القضايا التي قد يتسبب فيها الذكاء الاصطناعي هم في مقعد القيادة ، وينظرون إلى المكان الذي قد نتجه إليه. إذا كانوا هم من يُطالبون بتنظيم الذكاء الاصطناعي لحمايتنا من مُستقبل مُروع ، فقد يكون الوقت قد حان للقيام بالخطوة اللازمة. يُمكنك الإطلاع الآن على بعض الأسباب لعدم الثقة بشكل أعمى في الذكاء الاصطناعي.

زر الذهاب إلى الأعلى