فك شفرة Mixtral of Experts: دليل كامل

تعني Mixtral of Experts Mixtral 8x7B وMixtral 8x22B باستخدام SMoE. استكشف الميزات والتطبيقات المتعلقة بـ Mixtral of Experts على مدونتنا.

ويبرز الرئيسية

  • Mixtral 8x7B و Mixtral 8x22B هما نماذج لغوية مفتوحة المصدر رائدة تم تطويرها بواسطة Mistral AI.
  • تستخدم هذه النماذج بنية مزيج متفرق من الخبراء (SMoE)، حيث يستخدم Mixtral 8x22B 39B فقط من المعلمات النشطة من أصل 141B.
  • تتميز Mixtral بالتفوق في مهام مختلفة، بما في ذلك إنشاء التعليمات البرمجية، والفهم متعدد اللغات، والتعامل مع السياق طويل المدى، متجاوزة بذلك نماذج اللغة الأكبر في الأداء.
  • بفضل أدائها الاستثنائي، إلى جانب طبيعتها مفتوحة المصدر، تضع Mixtral كأداة قوية للمطورين الذين يسعون إلى دمج قدرات الذكاء الاصطناعي المتقدمة في تطبيقاتهم.

المقدمة

يتغير مجال معالجة اللغة الطبيعية (NLP) باستمرار. وتستمر التطورات الجديدة في تعزيز قدراتنا، مع ميكسترال يعتبر هذا النموذج مثالاً بارزًا. من خلال العمل على مزيج من الأساليب المتخصصة ضمن إطار عمل المحول، سيتم فحص Mixtral بالتفصيل في هذا الدليل. ستتناول المدونة ميزاته ووظائفه وتطبيقاته المحتملة في القطاعات المعتمدة على معالجة اللغة.

ما هو ميكسترال الخبراء؟

ما هو Mixtral 7B و Mixtral 8x22B؟

تم تطوير Mixtral 8x7B وMixtral 8x22B بواسطة Mistral AI كنماذج متقدمة للغة كبيرة. Mixtral 8x7B وMixtral 8x22B عبارة عن نماذج وزن مفتوحة المصدر معروفة بكفاءتها العالية. يمكن الوصول إلى هذه النماذج بموجب ترخيص Apache 2.0، مما يضمن إمكانية الوصول المحسنة. وهي ذات قيمة خاصة للمهام التي تحتاج إلى التخصيص والضبط الدقيق، حيث توفر أداءً أسرع وقابلية نقل متزايدة وتحكمًا أفضل كميزات رئيسية.

ما هو الخليط المتناثر من الخبراء؟

يستخدم Mixtral نهج مزيج متفرق من الخبراء (SMoE) لتحقيق الكفاءة. فبدلاً من استخدام جميع المعلمات في وقت واحد، فإنه يستخدم شبكة توجيه لاختيار مجموعة صغيرة من الخبراء لكل رمز إدخال. ويعمل هذا الاختيار المستهدف على تعزيز الأداء من خلال التركيز على مكونات النموذج ذات الصلة ويتم ذلك من خلال شبكة بوابات في طبقة moe. ومن خلال تنشيط المعلمات الأساسية فقط، يحقق Mixtral إنتاجية أعلى ويعالج المعلومات بشكل أسرع، مما يجعله مثاليًا لمهام معالجة اللغة الطبيعية المعقدة مع مجموعات البيانات الكبيرة.

مزيج متفرق من خبراء الهندسة المعمارية

قدرات ميكسرال

بفضل الابتكارات مثل Grouped-Query Attention (GQA) وSliding Window Attention (SWA)، تتفوق Mixtral في إدارة المهام المعقدة بسرعة من خلال الاستفادة من التوازي النموذجي. يمكن لـ Mixtral تقسيم المشكلات المعقدة إلى مشكلات أبسط باستخدام استراتيجيات تدريب متقدمة. يعزز المجموع المرجح للمخرجات من خبراء متنوعين في طبقة MoE من أدائها من خلال التقاط التعقيدات التي قد تفوتها النماذج ذات البنية الفردية.

المميزات التقنية لـ Mixtral of Experts

ميكسترال 8x7B

  • قدرات متعددة اللغات باللغات الإنجليزية والفرنسية والإيطالية والألمانية والإسبانية
  • أداء قوي في الترميز
  • تم ضبطه إلى نموذج يتبع التعليمات
  • نافذة سياق 32 ألف رمز

ميكسترال 8x22B

  • نافذة سياق 64 ألف رمز
  • يجيد اللغة الإنجليزية والفرنسية والإيطالية والألمانية والإسبانية
  • قدرات قوية في الرياضيات والترميز
  • يدعم استدعاء الوظيفة بشكل أصلي

معيار الأداء لميكسترال

فيما يلي رسم بياني لأداء Mixtral 8x22B وMixtral 8x7B. وهذا الرسم مستمد من النماذج التي يوفرها المجتمع. Mixtral 8x22B هو أحدث طراز في عائلة طرازات Mistral المفتوحة. مع أنماط التنشيط المتفرقة، فهو بديل أقوى بكثير من طراز 70B ويتفوق على نماذج الوزن المفتوح الأخرى. إن توفره كنموذج أساسي يجعله مثاليًا لضبط حالات الاستخدام المختلفة.

أداء Mixtral 8x22B وMixtral 8x7B (MMLU)

وفي قدرات الاستدلال، يتفوق Mixtral 8x7B وMixtral 8x22B أيضًا على Llama 2 70B، وهو النموذج الأساسي الحالي لتوسيع نماذج اللغة الكبيرة إلى اللغات التي يتم التحدث بها على نطاق واسع ولكن لا يتم تمثيلها بشكل كافٍ في بيانات تدريب هذه النماذج اللغوية.

Mixtral 8x7B وMixtral 8x22B معيار المنطق والعقل السليم

تُظهر نماذج الخبراء من Mixtral هذه قدرات رائعة في الترميز والرياضيات. يتفوق Mixtral على سابقه، Llama 2 70B، باستخدام 13 مليار معلمة نشطة فقط لكل رمز، وهو انخفاض كبير عن 70 مليارًا لتوفير تكلفة الحوسبة.

أداء ترميز Mixtral 8x7B وMixtral 8x22B

Novita AI يوفر هذين النموذجين، يمكنك التحقق من المعلومات التفصيلية على موقعنا LLM نموذج API.

Novita AI وصف موديل Mixtral 8x22B والسعر
Novita AI وصف موديل Mixtral 8x7B والسعر

التطبيقات العملية لميكسترال

تتجاوز البراعة التقنية التي يتمتع بها برنامج Mixtral قدراته. فقدرته على توليد نصوص تشبه النصوص البشرية تجعله مثاليًا للترميز وترجمة اللغات وإنشاء المحتوى. ولأنه مفتوح المصدر، فإن برنامج Mixtral متاح لمجموعة واسعة من الصناعات. ويمكن للمطورين تخصيص النموذج ليناسب متطلبات محددة لأنه يسهل تطوير أساليب وتطبيقات جديدة.

جيل المحتوى

أحد التطبيقات الأساسية لـ Mistral of Experts وأي LLM هو توليد نص بناءً على توجيهاتك الأولية. يعتمد هذا التدريب المكثف للنموذج على مجموعات بيانات متنوعة تحتوي على كميات هائلة من النصوص من مختلف المجالات. من خلال هذا التدريب المكثف، يتقن النموذج أساليب كتابة ومواضيع وهياكل لغوية مختلفة، مما يُمكّنه من التفوق في إنتاج نص يلبي متطلبات محددة من حيث الأسلوب والمحتوى.

Novita AI اختبار إنشاء محتوى Mixtral 8x22B

تحليل العاطفة

تكتشف أداة تحليل المشاعر Mistral، المدعومة بالتعلم العميق، المشاعر الإيجابية والسلبية والمحايدة بدقة في النص أثناء الدردشة. وهي تستفيد من التدريب المكثف على مجموعات بيانات متنوعة لاستنتاج النغمات العاطفية والتمييز بين المشاعر في أنواع المحتوى المختلفة. يمكنك طلب تحليل المشاعر في نص معين من Mistral.

Novita AI اختبار تحليل المشاعر Mixtral 8x22B

رمز عينة Mixtral 8x22B

from openai import OpenAI
  
client = OpenAI(
    base_url="https://api.novita.ai/v3/openai",
    # Get the Novita AI API Key by referring: /docs/get-started/quickstart.htmll#_3-create-an-api-key
    api_key="<YOUR Novita AI API Key>",
)

model = "cognitivecomputations/dolphin-mixtral-8x22b"
stream = True # or False
max_tokens = 512

chat_completion_res = client.chat.completions.create(
    model=model,
    messages=[
        {
            "role": "system",
            "content": "Act like you are a helpful assistant.",
        },
        {
            "role": "user",
            "content": "Hi there!",
        }
    ],
    stream=stream,
    max_tokens=max_tokens,
  )

if stream:
    for chunk in chat_completion_res:
        print(chunk.choices[0].delta.content or "", end="")
else:
    print(chat_completion_res.choices[0].message.content)

ترجمة النصوص والمهام المتعددة اللغات

كما يُظهِر Mistral قدرات ممتازة في التعامل مع المهام متعددة اللغات. وبفضل التدريب المتخصص، يستطيع Mistral فهم النصوص وتوليدها بلغات مختلفة، وخاصة الفرنسية والألمانية والإسبانية والإيطالية. ويُعد Mistral مفيدًا بشكل خاص للشركات والمستخدمين الذين يحتاجون إلى التواصل بلغات متعددة.

Novita AI برنامج Mixtral 8x7B لترجمة النصوص واختبار اللغات المتعددة

رمز الجيل

بفضل المدخلات المقدمة، يتفوق نموذج Mistral of Experts في إنشاء التعليمات البرمجية، وتحويل الأوصاف عالية المستوى إلى تعليمات برمجية فعّالة بلغات برمجة متعددة. ويستخدم التدريب من مستودعات التعليمات البرمجية، والوثائق الفنية، ومنتديات المطورين لتلبية المتطلبات وضمان الوظائف والتحسين.

Novita AI اختبار إنشاء الكود Mixtral 8x7B

رمز عينة Mixtral 8x7B

from openai import OpenAI
  
client = OpenAI(
    base_url="https://api.novita.ai/v3/openai",
    # Get the Novita AI API Key by referring: /docs/get-started/quickstart.htmll#_3-create-an-api-key
    api_key="<YOUR Novita AI API Key>",
)

model = "Nous-Hermes-2-Mixtral-8x7B-DPO"
stream = True # or False
max_tokens = 512

chat_completion_res = client.chat.completions.create(
    model=model,
    messages=[
        {
            "role": "system",
            "content": "Act like you are a helpful assistant.",
        },
        {
            "role": "user",
            "content": "Hi there!",
        }
    ],
    stream=stream,
    max_tokens=max_tokens,
  )

if stream:
    for chunk in chat_completion_res:
        print(chunk.choices[0].delta.content or "", end="")
else:
    print(chat_completion_res.choices[0].message.content)

دليل المطور للاستفادة من Mixtral: LLM API

إن إضافة نموذج Mixtral إلى التطبيقات يمثل فرصة مثيرة للمطورين. فهو مفتوح المصدر وقابل للتخصيص وفقًا لاحتياجات محددة. وللاستفادة من Mixtral بشكل فعال، يتعين على المطورين فهم وظائفه وواجهات برمجة التطبيقات الخاصة به. نوصي Novita AI لتحقيق فعالية من حيث التكلفة LLM تكامل واجهة برمجة التطبيقات (API)، حيث تم تجهيز منصة واجهة برمجة التطبيقات (API) هذه بالنماذج المميزة وبأسعار معقولة LLM حلول.

تبدأ مع Novita AI API

  • الخطوة الثالثة: أدخل Novita AI وإنشاء حسابيمكنك تسجيل الدخول باستخدام Google أو GitHub. سيؤدي تسجيل الدخول الأول إلى إنشاء حساب جديد. لا بأس من الاشتراك في أشياء باستخدام عنوان بريدك الإلكتروني.
Novita AI الموقع، قم بتسجيل الدخول للتسجيل
  • الخطوة 2: إدارة مفتاح API. Novita AI يقوم بمصادقة وصول API باستخدام مصادقة Bearer مع مفتاح API في رأس الطلب. انتقل إلى "ادارة المفاتيح" لإدارة مفاتيحك. بمجرد تسجيل الدخول أولاً، يتم إنشاء مفتاح افتراضي تلقائيًا. يمكنك أيضًا النقر فوق "+ إضافة مفتاح جديد".
Novita Ai إدارة المفاتيح، مفتاح API
Novita AI LLM واجهة برمجة التطبيقات (API)، مرجع للمطورين، أمثلة، كود العينة

فيما يلي مثال لعميل Python باستخدام Novita AI واجهة برمجة تطبيقات إكمال الدردشة.

pip install 'openai>=1.0.0'
from openai import OpenAIclient = OpenAI(
    base_url="https://api.novita.ai/v3/openai",
    # Get the Novita AI API Key by referring: https://novita.ai/docs/get-started/quickstart.html#_2-manage-api-key.
    api_key="<YOUR Novita AI API Key>",
)model = "Nous-Hermes-2-Mixtral-8x7B-DPO"
stream = True # or False
max_tokens = 512chat_completion_res = client.chat.completions.create(
    model=model,
    messages=[
        {
            "role": "system",
            "content": "Act like you are a helpful assistant.",
        },
        {
            "role": "user",
            "content": "Hi there!",
        }
    ],
    stream=stream,
    max_tokens=max_tokens,
 )if stream:
    for chunk in chat_completion_res:
        print(chunk.choices[0].delta.content or "", end="")
else:
    print(chat_completion_res.choices[0].message.content)
  • الخطوة 4. شحن الائتمان. كما ذكرنا في الخطوة الأولى، لديك قسيمة بها رصيد لتجربة منتجاتنا، لكنها محدودة. لإضافة المزيد من الرصيد، يرجى زيارة الفواتير والمدفوعات واتبع الدليل على طرق الدفع .

خاتمة

في الختام، فإن Mixtral of Experts مع MoE في بنيته الأساسية هي تقنية جديدة تجمع بين ميزات الذكاء الاصطناعي الذكي والاستخدام في الحياة الواقعية في صناعات مختلفة. إنها تعمل بشكل أفضل في مهام محددة مثل إنشاء التعليمات البرمجية والقصص والترجمة. وهذا يجعلها أداة خاصة في عالم التعلم الآلي الرقمي اليوم. يمكن للشركات الاستفادة من قوتها الكاملة باستخدام Mixtral مع الأنظمة الحالية واتباع الممارسات الجيدة. سيساعدهم هذا على أن يكونوا أكثر إبداعًا والبقاء في صدارة المنافسة. احتضن قوة Mixtral لتحقيق النجاح في عالم الذكاء الاصطناعي سريع الحركة.

الأسئلة الشائعة

ما هو الفرق بين ميسترال وميكسترال؟

يتمتع Mixtral بهندسة Sparse Mixture of Experts، وقدرات محسّنة مقارنة بـ Mistral. فهو يتميز بالقدرة على معالجة المهام اللغوية المعقدة بسرعة وكفاءة، مما يتطلب طاقة حوسبة أقل.

ما الذي تم تدريب Mixtral عليه؟

خضعت Mixtral للتدريب بحجم سياق واسع يبلغ 32,000 رمز وأظهرت أداءً قابلاً للمقارنة مقارنةً بـ Llama 2 70B وGPT-3.5 عبر معايير مختلفة.

هل يحتاج ميكسرال إلى GPU?

لإجراء الاستدلال باستخدام Mixtral 8X22B، أ GPU يلزم ذاكرة وصول عشوائي (VRAM) بسعة 300 جيجابايت على الأقل. بالنسبة لـ Mixtral 8x7B، عادةً ما يلزم حوالي 94 جيجابايت من ذاكرة الوصول العشوائي (VRAM) وفقًا للإرشادات القياسية.

هل يمكن استخدام Mixtral للاستخدام التجاري؟

يتوفر كل من Mixtral 8x7B وMixtral 8x7B — Instruct بموجب ترخيص Apache 2.0، مما يسمح بالاستخدام الأكاديمي والتجاري.

Novita AI منصة سحابية متكاملة تُمكّنك من تحقيق طموحاتك في مجال الذكاء الاصطناعي. واجهات برمجة تطبيقات متكاملة، بدون خوادم، GPU مثال - الأدوات الفعالة من حيث التكلفة التي تحتاجها. تخلص من البنية التحتية، وابدأ مجانًا، وحوّل رؤيتك للذكاء الاصطناعي إلى واقع.

اقتراحات للقراءة

1.تقديم Mixtral-8x22B: أحدث وأكبر مزيج من نموذج اللغة الخبير الكبير

2.أسرار Mixtral 8x22b تم الكشف عنها: دليل شامل

3.تقديم طراز Mixtral 8x7B من Mistral: كل ما تحتاج إلى معرفته


اكتشف المزيد من نوفيتا

اشترك للحصول على أحدث المشاركات المرسلة إلى بريدك الإلكتروني.

اترك تعليق

انتقل إلى الأعلى

اكتشف المزيد من نوفيتا

اشترك الآن لمواصلة القراءة والوصول إلى الأرشيف الكامل.

مواصلة القراءة