في 13 مارس، أعلن الرئيس التنفيذي لشركة غوغل (GOOG.O)، سوندار بيشاي، عن Gemma-3، أحدث نموذج متعدد الأوضاع مفتوح المصدر الذي يهدف إلى توفير أداء عالي بتكلفة منخفضة. يحتوي Gemma-3 على أربعة مجموعات من المعلمات: 1 مليار، 4 مليار، 12 مليار و 27 مليار. وحتى مع أكبر عدد من المعلمات وهو 27 مليار، يمكن لجهاز H100 القيام بالاستدلال بكفاءة عالية، حيث يتطلب الوصول إلى هذا الأداء على الأقل زيادة بمقدار 10 أضعاف في قوة الحوسبة مقارنة بالنماذج المماثلة، وهو أقوى نموذج بمعلمات صغيرة حتى الآن. ووفقًا لبيانات اختبار الأداء التي أُجريت بشكل عميق من ChatbotArena للنماذج الشهيرة، يظهر أن Gemma-3 يأتي في المرتبة الثانية بعد R1-671B من DeepSeek ويتفوق على o3-mini من OpenAI و Llama3-405B.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
جوجل مفتوح المصدر GEM Gemma-3: يقارن بـ DeepSeek ، قوة الحوسبة تنخفض بشكل كبير
في 13 مارس، أعلن الرئيس التنفيذي لشركة غوغل (GOOG.O)، سوندار بيشاي، عن Gemma-3، أحدث نموذج متعدد الأوضاع مفتوح المصدر الذي يهدف إلى توفير أداء عالي بتكلفة منخفضة. يحتوي Gemma-3 على أربعة مجموعات من المعلمات: 1 مليار، 4 مليار، 12 مليار و 27 مليار. وحتى مع أكبر عدد من المعلمات وهو 27 مليار، يمكن لجهاز H100 القيام بالاستدلال بكفاءة عالية، حيث يتطلب الوصول إلى هذا الأداء على الأقل زيادة بمقدار 10 أضعاف في قوة الحوسبة مقارنة بالنماذج المماثلة، وهو أقوى نموذج بمعلمات صغيرة حتى الآن. ووفقًا لبيانات اختبار الأداء التي أُجريت بشكل عميق من ChatbotArena للنماذج الشهيرة، يظهر أن Gemma-3 يأتي في المرتبة الثانية بعد R1-671B من DeepSeek ويتفوق على o3-mini من OpenAI و Llama3-405B.