أفضل نماذج LLM المحلية (غير المُتصلة بالإنترنت) التي يمكنك تجربتها الآن

مع تزايد توافر نماذج LLM القوية على منصات مثل HuggingFace، وتَقدم نظم الذكاء الاصطناعي المُتاحة مثل H2O و Text Gen و GPT4All، أصبح بإمكانك الآن تنزيل نماذج LLM وتشغيلها مباشرة على الكمبيوتر الخاص بك. هذا يعني أنك لم تعد بحاجة للاتصال بالإنترنت للحصول على قدرات الذكاء الاصطناعي بشكل مرن وآمن. إذا كنت تبحث عن تجربة الذكاء الاصطناعي بشكل محلي، إليك تسعة من أفضل نماذج LLM غير المتصلة بالإنترنت التي يُمكنك تجربتها الآن للاستفادة من السرعة والأمان في عمليات المُعالجة والحماية من الإطلاع على مُختلف معلوماتك بواسطة المُزوِّدين.

أفضل نماذج LLM المحلية (غير المُتصلة بالإنترنت) التي يمكنك تجربتها الآن

1. Hermes 2 Pro GPTQ

Hermes 2 Pro GPTQ

Hermes 2 Pro هو نموذج لغة مُتطور تم ضبطه بدقة بواسطة Nous Research. وهو يَستخدم إصدارًا محدثًا ونظيفًا من مجموعة بيانات OpenHermes 2.5، إلى جانب مجموعة بيانات Function Calling و JSON Mode التي تم تقديمها حديثًا والتي تم تطويرها داخليًا. يعتمد هذا النموذج على بنية Mistral 7B وتم تدريبه على 1000000 تعليمة/دردشة بجودة GPT-4 أو أفضل، والتي تُعتبر في المقام الأول بيانات اصطناعية.

النموذج Hermes 2 Pro GPTQ
حجم النموذج 7.26 GB
المعلمات 7 billion
التكميم 4-bit
النوع Mistral
الترخيص Apache 2.0

يُعد Hermes 2 Pro على Mistral 7B هو الطراز الرائد الجديد من Hermes 7B، والذي يُوفر أداءً مُحسّنًا عبر معايير مُختلفة، بما في ذلك AGIEval و BigBench Reasoning و GPT4All و TruthfulQA. تجعله قدراته المُحسنة مناسبًا لمجموعة واسعة من مهام معالجة اللغة الطبيعية (NLP)، مثل إنشاء التعليمات البرمجية وإنشاء المُحتوى وتطوير تطبيقات دردشة بالذكاء الاصطناعي.

التنزيل: Hermes 2 Pro GPTQ عبر Hugging Face

2. Zephyr 7B Beta

Zephyr عبارة عن سلسلة من نماذج اللغة المُدربة للعمل كمُساعد مُفيد. Zephyr-7B-Beta هو النموذج الثاني في السلسلة، والذي تم ضبطه بدقة إنطلاقُا من Mistral-7B-v0.1 باستخدام Direct Preference Optimization (DPO) على مزيج من مجموعات البيانات الاصطناعية المُتاحة للجمهور.

النموذج Zephyr 7B Beta
حجم النموذج 7.26 GB
المعلمات 7 billion
التكميم 4-bit
النوع Mistral
الترخيص Apache 2.0

من خلال إزالة المُحاذاة المُضمَّنة لمجموعات البيانات التدريبية، يُظهر Zephyr-7B-Beta أداءً مُحسّنًا على معايير مثل MT-Bench، مما يُعزز من فائدته في مهام مختلفة. ومع ذلك، قد يؤدي هذا التعديل إلى إنشاء نص إشكالي عند المُطالبة به بطرق مُعينة.

التنزيل: Zephyr 7B Beta عبر Hugging Face

3. Falcon Instruct GPTQ

Falcon Instruct GPTQ

يعتمد هذا الإصدار الكمي من Falcon على بنية فك التشفير فقط التي تم ضبطها بدقة أعلى لنموذج Falcon-7b الخام من TII. تم تدريب نموذج Falcon الأساسي باستخدام 1.5 تريليون رمز مُميز تم الحصول عليه عبر الإنترنت العام. كنموذج فك تشفير قائم على التعليمات فقط مُرخص بموجب Apache 2، يُعد Falcon Instruct مثاليًا للشركات الصغيرة التي تبحث عن نموذج لاستخدامه في ترجمة اللغة وإدخال البيانات.

النموذج Falcon-7B-Instruct
حجم النموذج 7.58 GB
المعلمات 7 billion
التكميم 4-bit
النوع Falcon
الترخيص Apache 2.0

ومع ذلك، فإن هذا الإصدار من Falcon ليس مثاليًا للضبط الدقيق وهو مُخصص للاستدلال فقط. إذا كنت تريد ضبط Falcon بدقة، فسيتعين عليك استخدام النموذج الخام، والذي قد يتطلب الوصول إلى أجهزة تدريب على مستوى المؤسسة مثل NVIDIA DGX أو AMD Instinct AI Accelerators.

تنزيل: Falcon-7B-Instruct عبر Hugging Face

4. GPT4ALL-J Groovy

GPT4All-J Groovy هو نموذج فك تشفير فقط تم ضبطه بدقة بواسطة Nomic AI ومُرخص بموجب Apache 2.0. يعتمد GPT4ALL-J Groovy على نموذج GPT-J الأصلي، المعروف بأنه رائع في إنشاء النصوص من المُطالبات. تم ضبط GPT4ALL -J Groovy كنموذج دردشة، وهو رائع لتطبيقات إنشاء النصوص السريعة والإبداعية. هذا يجعل GPT4All-J Groovy مثاليًا لمُنشئي المحتوى لمساعدتهم في الكتابة والأعمال الإبداعية، سواء كانت شعرًا أو موسيقى أو قصصًا.

النموذج GPT4ALL-J Groovy
حجم النموذج 3.53 GB
المعلمات 7 billion
التكميم 4-bit
النوع GPT-J
الترخيص Apache 2.0

لسوء الحظ، تم تدريب نموذج GPT-J الأساسي على مجموعة بيانات باللغة الإنجليزية فقط، مما يعني أنَّ حتى نموذج GPT4ALL-J المضبوط بدقة هذا يمكنه فقط الدردشة وإنشاء النصوص باللغة الإنجليزية.

تنزيل: GPT4ALL-J Groovy عبر Hugging Face

5. DeepSeek Coder V2 Instruct

DeepSeek Coder V2 Instruct

يُعد DeepSeek Coder V2 نموذجًا لغويًا متقدمًا يُعزز قدرات البرمجة والاستدلال الرياضي. وهو يدعم مجموعة واسعة من لغات البرمجة ويُوفر طول سياق مُمتد، مما يجعله أداة متعددة الاستخدامات للمُطورين.

النموذج DeepSeek Coder V2 Instruct
حجم النموذج 13 GB
المعلمات 33 billion
التكميم 4-bit
النوع DeepSeek
الترخيص Apache 2.0

مقارنةً بسابقه، يُظهِر DeepSeek Coder V2 تقدمًا كبيرًا في المهام المتعلقة بالبرمجة والاستدلال والقدرات العامة. فهو يُوسع الدعم للغات البرمجة من 86 إلى 338 ويمتد طول السياق من 16 ألف إلى 128 ألف رمز. وفي تقييمات المعايير القياسية، يتفوق على نماذج مثل GPT-4 Turbo و Claude 3 Opus و Gemini 1.5 Pro في معايير الترميز والرياضيات.

تنزيل: DeepSeek Coder V2 Instruct عبر Hugging Face

6. Mixtral-8x7B

Mixtral-8x7B

Mixtral-8x7B عبارة عن مزيج مُتفرق من نماذج الخبراء (MoE) التي طورتها Mistral AI. يتميز بثمانية خبراء لكل MLP، بإجمالي 45 مليار معلمة. ومع ذلك، يتم تنشيط خبيرين فقط لكل رمز أثناء الاستدلال، مما يجعله فعّال حسابيًا وقابل للمقارنة في السرعة والتكلفة مع نموذج كثيف مُكوَّن من 12 مليار معلمة.

النموذج Mixtral-8x7B
حجم النموذج 12 GB
المعلمات 48 billion
التكميم 4-bit
النوع Mistral MoE
الترخيص Apache 2.0

يدعم Mixtral طول سياق يبلغ 32 ألف رمز مُميز ويتفوق على Llama 2 70B في معظم المعايير، ويُطابق أداء GPT-3.5 أو يتجاوزه. إنه بارع في لغات مُتعددة، بما في ذلك الإنجليزية والفرنسية والألمانية والإسبانية والإيطالية، مما يجعله خيارًا متعدد الاستخدامات لمهام مُعالجة اللغة الطبيعية المُختلفة.

التنزيل: Mixtral-8x7B عبر Hugging Face

7. Wizard Vicuna Uncensored-GPTQ

Wizard-Vicuna GPTQ هو إصدار مُكمّم من Wizard Vicuna يعتمد على نموذج LlaMA. ​​وعلى عكس معظم نماذج LLM التي تم إصدارها للجمهور، فإن Wizard-Vicuna هو نموذج غير خاضع للرقابة مع إزالة التحكم فيه. وهذا يعني أن النموذج لا يتمتع بنفس معايير السلامة والأخلاق مثل معظم النماذج.

النموذج Wizard-Vicuna-30B-Uncensored-GPTQ
حجم النموذج 16.94 GB
المعلمات 30 billion
التكميم 4-bit
النوع LlaMA
الترخيص GPL 3

على الرغم من أنَّ هذا قد يشكل مشكلة في التحكم في الذكاء الاصطناعي، فإنَّ وجود نموذج LLM غير خاضع للرقابة يبرز أيضًا أفضل ما في النموذج من خلال السماح له بالإجابة دون أي قيود. يسمح هذا أيضًا للمُستخدمين بإضافة محاذاة مخصصة حول كيفية تصرف الذكاء الاصطناعي أو إجابته بناءً على مُطالبة مُعينة.

التنزيل: Wizard-Vicuna-30B-Uncensored-GPTQ عبر Hugging Face

8. Orca Mini-GPTQ

Orca Mini-GPTQ

هل تبحث عن تجربة نموذج تم تدريبه على طريقة تعلم فريدة؟ Orca Mini هو تنفيذ نموذج غير رسمي لأوراق بحث Orca من Microsoft. تم تدريبه باستخدام طريقة التعلم بين المعلم والطالب، حيث كانت مجموعة البيانات مليئة بالشروحات بدلاً من المطالبات والاستجابات فقط. من الناحية النظرية، يجب أن يُؤدي هذا التخصيص إلى الحصول على طالب أكثر ذكاءً، حيث يُمكن للنموذج فهم المشكلة بدلاً من مجرد البحث عن أزواج الإدخال والإخراج مثل كيفية عمل نماذج LLM النموذجية.

النموذج Orca Mini-GPTQ
حجم النموذج 8.11 GB
المعلمات 3 billion
التكميم 4-bit
النوع LlaMA
الترخيص MIT

مع ثلاثة مليارات معلمة فقط، من السهل تشغيل Orca Mini GPTQ حتى على أنظمة أقل قوة. ومع ذلك، لا ينبغي استخدام هذا النموذج لأي شيء احترافي لأنه يولد معلومات كاذبة واستجابات متحيزة ومسيئة. يجب استخدام هذا النموذج للتعلم والتجربة مع Orca وطرقها.

تنزيل: Orca Mini-GPTQ عبر Hugging Face

9. Llama 2 13B Chat GPTQ

Llama 2 13B Chat GPTQ

Llama 2 هو خليفة Llama LLM الأصلي، حيث يوفر أداءً وتنوعًا محسنين. تم ضبط متغير 13B Chat GPTQ بدقة لتطبيقات الذكاء الاصطناعي المُخصصة للمحادثة المحسّنة للحوار باللغة الإنجليزية.

النموذج Llama 2 13B Chat GPTQ
حجم النموذج 7.26 GB
المعلمات 13 billion
التكميم 4-bit
النوع Llama 2
الترخيص Meta License

Llama 2 مُخصص للاستخدام التجاري والبحثي. تسمح شروط الترخيص للشركات التي لديها أقل من 700 مليون مستخدم باستخدامه دون رسوم إضافية. هذا النموذج مثالي للمؤسسات التي تبحث عن حل روبوت دردشة قوي يتطلب تدريبًا إضافيًا بسيطًا.

تنزيل: Llama 2 13B Chat GPTQ عبر Hugging Face

بعض النماذج المذكورة أعلاه لها إصدارات مُتعددة من حيث المعلمات. بشكل عام، تعطي الإصدارات ذات المعلمات الأعلى نتائج أفضل ولكنها تتطلب أجهزة أكثر قوة، بينما ستُولد الإصدارات ذات المعلمات الأقل نتائج ذات جودة أقل ولكنها يمكن تشغيلها على أجهزة أقل قوة. إذا لم تكن متأكدًا من قدرة الكمبيوتر لديك على تشغيل هذا الطراز، فحاول أولاً استخدام الإصدار ذي المعلمات الأقل، ثم استمر في العمل حتى تشعر بأن انخفاض الأداء لم يعد مقبولاً. يُمكنك الإطلاع الآن على هل يجب عليك استخدام نموذج LLM محلي؟ المزايا والعيوب وأفضل المُمارسات.

زر الذهاب إلى الأعلى