ال شائعات هذا صحيح: قامت Microsoft ببناء شريحة الذكاء الاصطناعي المخصصة الخاصة بها والتي يمكن استخدامها لتدريب نماذج اللغات الكبيرة وربما تجنب الاعتماد المكلف على Nvidia. قامت Microsoft أيضًا ببناء وحدة المعالجة المركزية الخاصة بها المستندة إلى Arm لأحمال العمل السحابية. تم تصميم كلا الرقاقتين المخصصتين لتشغيل مراكز بيانات Azure الخاصة بها وتجهيز الشركة وعملائها من المؤسسات لمستقبل مليء بالذكاء الاصطناعي.
ستصل شريحة Azure Maia AI من Microsoft ووحدة المعالجة المركزية Azure Cobalt التي تعمل بنظام Arm في عام 2024، على خلفية زيادة الطلب هذا العام على وحدات معالجة الرسوميات Nvidia H100 التي تُستخدم على نطاق واسع لتدريب وتشغيل أدوات الصور التوليدية ونماذج اللغات الكبيرة. هناك طلب كبير على وحدات معالجة الرسومات هذه حتى أن البعض جلبها أكثر من 40.000 دولار على موقع eBay.
يوضح راني بوركار، رئيس أنظمة الأجهزة والبنية التحتية لـ Azure في Microsoft، في مقابلة مع: “إن لدى Microsoft في الواقع تاريخًا طويلًا في تطوير السيليكون”. الحافة. لقد تعاونت Microsoft في تصنيع السيليكون لأجهزة Xbox منذ أكثر من 20 عامًا، وقد قامت بذلك حتى الآن رقائق مشتركة الهندسة لأجهزة Surface. يقول بوركار: “هذه الجهود مبنية على تلك التجربة”. “في عام 2017، بدأنا في تصميم مجموعة الأجهزة السحابية وبدأنا في تلك الرحلة لوضعنا على المسار الصحيح لبناء شرائحنا المخصصة الجديدة.”
تم إنشاء شريحة Azure Maia AI الجديدة ووحدة المعالجة المركزية Azure Cobalt داخليًا في Microsoft، بالإضافة إلى إصلاح شامل لمكدس الخادم السحابي بالكامل لتحسين الأداء والطاقة والتكلفة. يقول بوركار: “نحن نعيد التفكير في البنية التحتية السحابية لعصر الذكاء الاصطناعي، ونقوم فعليًا بتحسين كل طبقة من تلك البنية التحتية”.
وحدة المعالجة المركزية Azure Cobalt، التي تحمل اسم الصبغة الزرقاء، عبارة عن شريحة مكونة من 128 نواة مبنية على تصميم Arm Neoverse CSS ومخصصة لشركة Microsoft. إنه مصمم لتشغيل الخدمات السحابية العامة على Azure. يوضح بوركار: “لقد فكرنا كثيرًا ليس فقط في جعله عالي الأداء، ولكن أيضًا في التأكد من أننا نهتم بإدارة الطاقة”. “لقد قمنا ببعض اختيارات التصميم المتعمدة للغاية، بما في ذلك القدرة على التحكم في الأداء واستهلاك الطاقة لكل مركز وعلى كل جهاز افتراضي.”
تقوم Microsoft حاليًا باختبار وحدة المعالجة المركزية Cobalt الخاصة بها على أعباء العمل مثل Microsoft Teams وSQL server، مع خطط لإتاحة الأجهزة الافتراضية للعملاء في العام المقبل لمجموعة متنوعة من أعباء العمل. على الرغم من أنه لن يتم إجراء مقارنات مباشرة مع Borkar مع خوادم Graviton 3 من Amazon المتوفرة على AWS، إلا أنه يجب أن تكون هناك بعض مكاسب الأداء الملحوظة مقارنة بالخوادم المستندة إلى Arm التي تستخدمها Microsoft حاليًا لـ Azure. يقول بوركار: “يُظهر اختبارنا الأولي أن أدائنا أفضل بنسبة تصل إلى 40 بالمائة عما هو موجود حاليًا في مراكز البيانات لدينا التي تستخدم خوادم Arm التجارية”. لا تقوم Microsoft بمشاركة مواصفات النظام الكاملة أو معاييره حتى الآن.
تم تصميم مسرع Maia 100 AI من Microsoft، والذي سمي على اسم نجم أزرق ساطع، لتشغيل أعباء عمل الذكاء الاصطناعي السحابي، مثل التدريب على نماذج اللغة الكبيرة والاستدلال. وسيتم استخدامه لتشغيل بعض أكبر أعباء عمل الذكاء الاصطناعي للشركة على Azure، بما في ذلك أجزاء من المشروع الذي تبلغ تكلفته مليارات الدولارات. الشراكة مع OpenAI حيث تقوم Microsoft بتشغيل جميع أعباء عمل OpenAI. تتعاون شركة البرمجيات العملاقة مع OpenAI في مراحل تصميم واختبار Maia.
يقول سام ألتمان، الرئيس التنفيذي لشركة OpenAI: “لقد كنا متحمسين عندما شاركت Microsoft لأول مرة تصميماتها لشريحة Maia، وعملنا معًا لتحسينها واختبارها باستخدام نماذجنا”. “إن بنية الذكاء الاصطناعي الشاملة في Azure، والتي تم تحسينها الآن وصولاً إلى السيليكون باستخدام Maia، تمهد الطريق لتدريب نماذج أكثر قدرة وجعل هذه النماذج أرخص لعملائنا.”
تم تصنيع Maia باستخدام عملية TSMC بقياس 5 نانومتر، ويحتوي على 105 مليار ترانزستور – أي أقل بحوالي 30 بالمائة من الـ 153 مليار الموجودة في منافس Nvidia الخاص بشركة AMD، وهو معالج الرسوميات MI300X AI. يقول بوركار: “يدعم Maia تنفيذنا الأول لأنواع البيانات الفرعية 8 بت، وأنواع بيانات MX، من أجل المشاركة في تصميم الأجهزة والبرامج”. “وهذا يساعدنا على دعم التدريب على النماذج بشكل أسرع وأوقات الاستدلال.”
تعد Microsoft جزءًا من مجموعة تضم AMD وArm وIntel وMeta وNvidia وQualcomm التي تعمل على توحيد الجيل التالي من تنسيقات البيانات لنماذج الذكاء الاصطناعي. تعتمد Microsoft على العمل التعاوني والمفتوح لـ مشروع الحوسبة المفتوحة (OCP) لتكييف الأنظمة بأكملها مع احتياجات الذكاء الاصطناعي.
يكشف بوركار أن “Maia هو أول معالج خادم مبرد سائل كامل من إنتاج شركة Microsoft”. “كان الهدف هنا هو تمكين كثافة أعلى من الخوادم بكفاءة أعلى. نظرًا لأننا نعيد تصور المجموعة بأكملها، فإننا نفكر عمدًا في كل طبقة، لذا فإن هذه الأنظمة ستتلاءم فعليًا مع البصمة الحالية لمركز البيانات لدينا.
يعد هذا أمرًا أساسيًا لشركة Microsoft لتدوير خوادم الذكاء الاصطناعي هذه بسرعة أكبر دون الحاجة إلى إفساح المجال لها في مراكز البيانات حول العالم. قامت Microsoft ببناء حامل فريد لوضع لوحات خادم Maia فيه، مع مبرد سائل “صاحب” يعمل مثل المبرد الذي تجده في سيارتك أو جهاز كمبيوتر شخصي فاخر للألعاب لتبريد سطح رقائق Maia.
إلى جانب مشاركة أنواع بيانات MX، تشارك Microsoft أيضًا تصميمات الرفوف الخاصة بها مع شركائها حتى يتمكنوا من استخدامها على الأنظمة التي تحتوي على شرائح سيليكون أخرى بداخلها. لكن تصميمات شرائح Maia لن يتم مشاركتها على نطاق أوسع، حيث تحتفظ Microsoft بها داخل الشركة.
يتم حاليًا اختبار Maia 100 على GPT 3.5 Turbo، وهو نفس النموذج الذي يشغل أحمال عمل ChatGPT وBing AI وGitHub Copilot. لا تزال Microsoft في المراحل الأولى من النشر، ومثلها مثل Cobalt، فهي ليست على استعداد لإصدار مواصفات Maia الدقيقة أو معايير الأداء حتى الآن.
وهذا يجعل من الصعب فك تشفير كيفية مقارنة Maia بالضبط مع شعبية Nvidia وحدة معالجة الرسومات H100، ال أعلن مؤخرا عن H200، أو حتى الأحدث من AMD MI300X. لم يرغب بوركار في مناقشة المقارنات، وبدلاً من ذلك كرر التأكيد على أن الشراكات مع Nvidia وAMD لا تزال أساسية جدًا لمستقبل سحابة Azure AI. يقول بوركار: “على النطاق الذي تعمل به السحابة، من المهم حقًا تحسين كل طبقة من المكدس ودمجها، لتحقيق أقصى قدر من الأداء، وتنويع سلسلة التوريد، وبصراحة منح عملائنا خيارات البنية التحتية”.
يعد تنويع سلاسل التوريد أمرًا مهمًا لشركة Microsoft، خاصة وأن Nvidia هي المورد الرئيسي لرقائق خادم الذكاء الاصطناعي في الوقت الحالي وكانت الشركات تتسابق لشراء هذه الرقائق. التقديرات لديك اقتراح احتاجت OpenAI إلى أكثر من 30.000 من وحدات معالجة الرسومات A100 الأقدم من Nvidia لتسويق ChatGPT، لذلك يمكن لرقائق Microsoft الخاصة أن تساعد في خفض تكلفة الذكاء الاصطناعي لعملائها. قامت Microsoft أيضًا بتطوير هذه الرقائق لأحمال عمل Azure السحابية الخاصة بها، وليس لبيعها للآخرين مثل Nvidia وAMD وIntel وQualcomm.
يصر بوركار قائلاً: “أنا أنظر إلى هذا على أنه مكمل لهم، وليس منافساً لهم”. “لدينا كل من Intel وAMD في حوسبةنا السحابية اليوم، وبالمثل فيما يتعلق بالذكاء الاصطناعي، فإننا نعلن عن AMD حيث لدينا بالفعل Nvidia اليوم. إن هؤلاء الشركاء مهمون جدًا لبنيتنا التحتية، ونحن نريد حقًا أن نمنح عملائنا الخيارات.
ربما لاحظت تسمية Maia 100 وCobalt 100، مما يشير إلى أن Microsoft تقوم بالفعل بتصميم إصدارات الجيل الثاني من هذه الرقائق. يقول بوركار: “هذه سلسلة، إنها ليست مجرد 100 حلقة… ولكننا لن نشارك خرائط الطريق الخاصة بنا”. ليس من الواضح عدد المرات التي ستقدم فيها Microsoft إصدارات جديدة من Maia وCobalt حتى الآن، ولكن نظرًا لسرعة الذكاء الاصطناعي، لن أتفاجأ برؤية خليفة Maia 100 يصل بوتيرة مماثلة لـ Nvidia اعلان H200 (حوالي 20 شهرا).
سيكون المفتاح الآن هو مدى سرعة قيام Microsoft بتفعيل Maia لتسريع نشر طموحاتها الواسعة في مجال الذكاء الاصطناعي، وكيف ستؤثر هذه الرقائق على أسعار استخدام خدمات الذكاء الاصطناعي السحابية. مايكروسوفت ليست مستعدة للحديث عن أسعار الخادم الجديد حتى الآن، ولكننا رأينا الشركة بالفعل قم بتشغيل برنامج Copilot الخاص بـ Microsoft 365 بهدوء مقابل قسط قدره 30 دولارًا شهريًا لكل مستخدم.
يقتصر Copilot لـ Microsoft 365 على أكبر عملاء Microsoft فقط في الوقت الحالي، حيث يتعين على مستخدمي المؤسسات الالتزام بما لا يقل عن 300 مستخدم للدخول في القائمة لمساعد Office الجديد الذي يعمل بالذكاء الاصطناعي. وبينما تمضي Microsoft قدمًا في طرح المزيد من ميزات Copilot هذا الأسبوع وإعادة تسمية العلامة التجارية Bing Chat، يمكن أن تساعد Maia قريبًا في تحقيق التوازن بين الطلب على شرائح الذكاء الاصطناعي التي تدعم هذه التجارب الجديدة.