أطلقت شركة مايكروسوفت يوم الثلاثاء عائلة نماذج الذكاء الاصطناعي Phi-3.5، كخليفة لنماذج Phi-3 التي تم تقديمها في أبريل. يتألف الإصدار الجديد من نماذج Phi-3.5 Mixture of Experts (MoE) وPhi-3.5 Vision وPhi-3.5 Mini. هذه نماذج إرشادية، لذا لن تعمل كذكاء اصطناعي محادثة نموذجي ولكنها ستتطلب من المستخدمين إضافة تعليمات محددة للحصول على النتيجة المطلوبة. تتوفر نماذج الذكاء الاصطناعي مفتوحة المصدر للتنزيل من قوائم Hugging Face الخاصة بعملاق التكنولوجيا.
مايكروسوفت تصدر نماذج الذكاء الاصطناعي Phi-3.5
تم إطلاق نماذج الذكاء الاصطناعي الجديدة تم الإعلان عنه كتب المدير التنفيذي لشركة Microsoft Weizhu Chen في منشور على X (المعروف سابقًا باسم Twitter). توفر نماذج Phi-3.5 قدرات مطورة عن سابقتها، لكن البنية ومجموعة البيانات وطرق التدريب تظل كما هي إلى حد كبير. تم تحديث نموذج Mini بدعم متعدد اللغات، وتعد نماذج MoE وVision من الإضافات الجديدة إلى عائلة نماذج الذكاء الاصطناعي.
أما فيما يتعلق بالتفاصيل الفنية، فإن Phi-3.5 Mini يحتوي على 3.8 مليار معلمة. وهو يستخدم نفس أداة التجزئة (وهي أداة تقسم النص إلى وحدات أصغر) ومحول فك تشفير كثيف فقط. ويدعم النموذج النص فقط كمدخل ويدعم نافذة سياقية تضم 128000 رمز مميز. وتزعم الشركة أنها تدربت باستخدام 3.4 تريليون رمز مميز بين يونيو وأغسطس، وأن الحد الأقصى للمعرفة هو أكتوبر 2023.
ومن أهم ما يميز هذا النموذج هو أنه يدعم الآن العديد من اللغات الجديدة بما في ذلك العربية والصينية والتشيكية والدنمركية والهولندية والإنجليزية والفنلندية والفرنسية والألمانية والعبرية والمجرية والإيطالية واليابانية والكورية والنرويجية والبولندية والبرتغالية والروسية والإسبانية والسويدية والتايلاندية والتركية والأوكرانية.
يحتوي نموذج الذكاء الاصطناعي Phi-3.5 Vision على 4.2 مليار معلمة ويتضمن مشفرًا للصور يسمح له بمعالجة المعلومات داخل الصورة. وبنفس طول السياق مثل نموذج Mini، فإنه يقبل النص والصور كمدخلات. تم تدريبه بين شهري يوليو وأغسطس على 500 مليار رمز من البيانات ولديه حد أقصى لمعرفة النص في مارس.
أخيرًا، يحتوي نموذج الذكاء الاصطناعي Phi-3.5 MoE على 16×3.8 مليار معلمة. ومع ذلك، فإن 6.6 مليار منها فقط هي معلمات نشطة عند استخدام خبيرين. والجدير بالذكر أن MoE هي تقنية يتم فيها تدريب نماذج متعددة (خبراء) بشكل مستقل ثم دمجها لتحسين دقة وكفاءة النموذج. تم تدريب هذا النموذج على 4.9 تريليون رمز من البيانات بين أبريل وأغسطس، وله تاريخ قطع المعرفة في أكتوبر 2023.
فيما يتعلق بالأداء، شاركت Microsoft نتائج معايير الأداء لجميع النماذج الفردية، وبناءً على البيانات المشتركة، يتفوق Phi-3.5 MoE على كل من Gemini 1.5 Flash وGPT-4o mini في معيار SQuALITY الذي يختبر قابلية القراءة والدقة عند تلخيص كتلة طويلة من النص. هذا يختبر نافذة السياق الطويلة لنموذج الذكاء الاصطناعي.
ومع ذلك، تجدر الإشارة إلى أن هذه المقارنة ليست عادلة لأن نماذج MoE تستخدم بنية مختلفة وتتطلب مساحة تخزين أكبر وأجهزة أكثر تطورًا للتشغيل. وبشكل منفصل، تفوقت نماذج Phi-3.5 Mini وVision أيضًا على نماذج الذكاء الاصطناعي المنافسة ذات الصلة في نفس القطاع في بعض المقاييس.
يمكن للمهتمين بتجربة نماذج الذكاء الاصطناعي Phi-3.5 الوصول إليها عبر Hugging Face القوائمقالت شركة مايكروسوفت إن هذه النماذج تستخدم تقنية Flash attention، وهو ما يتطلب من المستخدمين تشغيل الأنظمة على وحدات معالجة رسومية متقدمة. وقد قامت الشركة باختبار هذه النماذج على وحدات معالجة الرسوميات Nvidia A100 وA6000 وH100.