بدء تدريب نموذج Claude AI على بياناتك قريباً: إليك كيفية الانسحاب قبل الموعد النهائي

ما تحتاج إلى القيام به لتقول "لا"

0

تُجري شركة Anthropic، المطورة للذكاء الاصطناعي Claude، تغييرًا جوهريًا في طريقة تعاملها مع بيانات المستخدمين. اعتبارًا من اليوم، سيُطلب من مستخدمي Claude الاختيار بين السماح لـ Anthropic باستخدام محادثاتهم لتدريب نماذج الذكاء الاصطناعي المستقبلية أو الانسحاب والحفاظ على خصوصية بياناتهم. إذا لم تتخذ قرارًا بحلول 28 سبتمبر 2025، فستفقد الوصول إلى Claude تمامًا.

Claude on laptop

في السابق، كانت Anthropic تتبع نهجًا يركز على الخصوصية أولاً، مما يعني حذف محادثاتك ورموزك تلقائيًا بعد 30 يومًا ما لم يكن ذلك مطلوبًا لأسباب قانونية. ومع ذلك، اعتبارًا من اليوم، وما لم تنسحب، سيتم تخزين بياناتك لمدة تصل إلى 5 سنوات وتغذيتها في دورات التدريب لمساعدة Claude على أن يصبح أكثر ذكاءً.

تنطبق السياسة الجديدة على جميع الخطط بما في ذلك الخطط المجانية (Free) والاحترافية (Pro) و Max، بالإضافة إلى Claude Code ضمن هذه المستويات. لا يتأثر مستخدمو الأعمال والحكومة والتعليم وواجهة برمجة التطبيقات (API).

آلية العمل

عند التسجيل، سيُعرض على المستخدمين الجدد خيار الموافقة على استخدام بياناتهم لتحسين أداء نموذج الذكاء الاصطناعي Claude. أما المستخدمون الحاليون، فستظهر لهم نافذة منبثقة بعنوان “تحديثات لشروط وسياسات المستهلك”. سيؤدي الضغط على الزر الأزرق الكبير “موافقة” إلى الاشتراك تلقائيًا، بينما يتيح مفتاح تبديل أصغر الانسحاب من هذه الميزة.

إذا تجاهلت هذه النافذة، سيتوقف Claude عن العمل بعد 28 سبتمبر. من المهم ملاحظة أن هذا التغيير يؤثر فقط على المحادثات والأكواد المستقبلية. أي شيء كتبته في الماضي لن يتم استخدامه إلا إذا أعدت فتح تلك المحادثات. وإذا حذفت محادثة، فلن يتم استخدامها للتدريب.

يمكنك تغيير قرارك لاحقًا في إعدادات الخصوصية. ولكن بمجرد استخدام البيانات للتدريب، لا يمكن استرجاعها. من الضروري فهم هذه الآلية لحماية خصوصيتك وبياناتك عند استخدام Claude.

لماذا تُجري شركة Anthropic هذا التغيير؟

Dario Amodei, Anthropic CEO

تؤكد شركة Anthropic أن بيانات المستخدمين ضرورية لتحسين أداء نموذجها اللغوي Claude في مجالات متعددة، بدءًا من “الترميز العاطفي” (vibe coding) والبرمجة التقليدية، وصولًا إلى قدرات الاستدلال والحفاظ على معايير السلامة. وتشدد Anthropic على أنها لا تبيع هذه البيانات لأطراف ثالثة، وتستخدم في المقابل مرشحات آلية لحذف المعلومات الحساسة قبل استخدامها في تدريب نماذجها.

ومع ذلك، يمثل هذا التغيير تحولًا في ميزان الخصوصية، إذ ينتقل من الخصوصية التلقائية إلى المشاركة التلقائية للبيانات، ما لم يعترض المستخدم على ذلك صراحةً. بمعنى آخر، سيتم جمع بياناتك واستخدامها افتراضيًا لتحسين Claude، ويتعين عليك اتخاذ إجراء لإيقاف ذلك إذا كنت تفضل عدم مشاركة بياناتك. هذا التغيير يهدف إلى تعزيز قدرات الذكاء الاصطناعي لـ Claude من خلال الاستفادة من بيانات المستخدمين، مع التأكيد على التزام Anthropic بحماية خصوصية المستخدمين من خلال آليات تصفية البيانات الحساسة.

ما هو خيارك؟

إن قرار شركة Anthropic بوضع نموذج Claude على مسار أسرع لتحسين البيانات الواقعية التي يتدرب عليها، يعني أنه كلما تحسن النموذج في الإجابة على الأسئلة المعقدة، وكتابة التعليمات البرمجية، وتجنب الأخطاء، كلما حقق تقدمًا أكبر في تطوير الذكاء الاصطناعي.

ومع ذلك، فإن هذا التقدم يأتي على حساب المستخدمين الذين قد يصبحون الآن جزءًا من مجموعة التدريب، حيث يتم تخزين بياناتهم لسنوات بدلاً من أسابيع.

بالنسبة للمستخدمين العاديين، قد لا يبدو هذا الأمر مهمًا. ولكن بالنسبة للمستخدمين المهتمين بالخصوصية، أو أي شخص يناقش مشاريع العمل أو الأمور الشخصية أو المعلومات الحساسة في Claude، فقد يكون هذا التحديث بمثابة علامة تحذير.

مع تفعيل الإعداد الافتراضي، تقع المسؤولية الآن عليك لتعطيل هذا الخيار إذا كنت تريد الحفاظ على خصوصية بياناتك.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.