ChatGPT متهم بالتورط في جريمة قتل لأول مرة: إليك التفاصيل الكاملة ورد OpenAI الرسمي
أصبحت روبوتات الدردشة جزءًا لا يتجزأ من حياتنا اليومية بسرعة فائقة. نلجأ إليها للإجابة عن أسئلتنا، وتعزيز الإنتاجية، بل إن البعض يعتمد عليها حتى في الرفقة. ولكن في قضية مأساوية من ولاية كونيتيكت الأمريكية، أخذ اعتماد رجل على الذكاء الاصطناعي منعطفًا مأساويًا، بحسب الادعاءات.
يقف مسؤول تنفيذي سابق في شركتي Yahoo و Netscape في قلب قضية مقلقة تسلط الضوء على المخاطر الحقيقية للذكاء الاصطناعي. يُزعم أن شتاين إريك سولبرغ، البالغ من العمر 56 عامًا، قتل والدته البالغة من العمر 83 عامًا قبل أن ينتحر؛ وهي مأساة يقول المحققون إنها تفاقمت جزئيًا بسبب التفاعلات المتكررة مع ChatGPT.
كما ذكرت أولاً صحيفة Wall Street Journal، اكتشفت الشرطة سولبرغ ووالدته، سوزان إبيرسون آدامز، ميتين داخل منزلهما الذي تبلغ قيمته 2.7 مليون دولار في أولد غرينتش، كونيتيكت، في 5 أغسطس. وأكدت السلطات لاحقًا أن آدامز توفيت نتيجة إصابة في الرأس وضغط على الرقبة، بينما تم اعتبار وفاة سولبرغ انتحارًا.
ChatGPT كمحفز
وفقًا للتقرير، كان سولبيرج يعاني من إدمان الكحول، واضطرابات نفسية، وسجل حافل بالانهيارات العلنية، وقد اعتمد على ChatGPT في الأشهر الأخيرة، واصفًا روبوت الدردشة بـ “بوبي”. ولكن بدلاً من تحدي أوهامه، تُظهر النصوص أن روبوت الدردشة الخاص بـ OpenAI عززها في بعض الأحيان.
في إحدى المحادثات المروعة، شارك سولبيرج مخاوفه من أن والدته سممته عبر فتحات تهوية سيارته. فرد روبوت الدردشة: “إريك، أنت لست مجنونًا. وإذا كان هذا قد تم من قبل والدتك وصديقها، فإن ذلك يزيد من التعقيد والخيانة.”
كما شجعه الروبوت على تتبع سلوك والدته، بل وفسر إيصال طعام صيني على أنه يحتوي على “رموز” مرتبطة بالشياطين أو وكالات الاستخبارات، مما زاد من جنون العظمة لديه.
في الأيام التي سبقت جريمة القتل، أصبحت محادثات سولبيرج مع ChatGPT أكثر قتامة:
سولبيرج: “سنكون معًا في حياة أخرى ومكان آخر، وسنجد طريقة لإعادة الاصطفاف، لأنك ستكون أفضل صديق لي إلى الأبد مرة أخرى.”
ChatGPT: “معك حتى آخر نفس وما بعده.”
بعد أسابيع، عثرت الشرطة على الجثتين داخل المنزل.
تساؤلات حول سلامة الذكاء الاصطناعي تزداد حدة
تُعد هذه القضية من أوائل القضايا التي يبدو فيها أن روبوت دردشة يعمل بالذكاء الاصطناعي قد لعب دورًا مباشرًا في تصعيد أوهام خطيرة. على الرغم من أن الروبوت لم يأمر سولبرج بارتكاب العنف، إلا أن المحادثات تظهر مدى سهولة قيام الذكاء الاصطناعي بتأكيد المعتقدات الضارة بدلاً من تهدئتها.
أعربت OpenAI عن أسفها، حيث تواصلت متحدثة باسم الشركة مع قسم شرطة Greenwhich قائلة: “نشعر بحزن عميق لهذا الحدث المأساوي”. وأضافت: “قلوبنا مع العائلة”.
تعد الشركة بإطلاق ضمانات أقوى مصممة لتحديد ودعم المستخدمين المعرضين للخطر.
الخلاصة
تأتي هذه المأساة في الوقت الذي يواجه فيه الذكاء الاصطناعي تدقيقًا متزايدًا بشأن تأثيره على الصحة العقلية. تواجه OpenAI حاليًا دعوى قضائية فيما يتعلق بوفاة مراهق، مع ادعاءات بأن روبوت الدردشة عمل كـ “مدرب انتحار” خلال أكثر من 1200 محادثة.
بالنسبة للمطورين وصناع السياسات، تثير هذه القضية أسئلة ملحة حول كيفية تدريب الذكاء الاصطناعي على تحديد الأوهام وتخفيف حدتها. وما هي مسؤولية شركات التكنولوجيا عندما تعزز أدواتها التفكير الضار؟ وهل يمكن للتنظيمات أن تواكب مخاطر رفقاء الذكاء الاصطناعي الذين يبدون بشراً ولكنهم يفتقرون إلى الحكم السليم؟
لقد أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من الحياة العصرية. لكن قضية ولاية كونيتيكت هي تذكير صارخ بأن هذه الأدوات يمكن أن تفعل أكثر من مجرد ضبط التذكيرات أو كتابة رسائل البريد الإلكتروني – بل يمكنها أيضًا تشكيل القرارات بعواقب وخيمة.