تعليق لا ينبغي أن تكون جهود شركة Apple لإضافة ذكاء اصطناعي مولد إلى أجهزتها iDevices مفاجئة لأحد، لكن استخدامات كوبرتينو الحالية للتكنولوجيا، والقيود المفروضة على الأجهزة المحمولة، تشير إلى أنها لن تكون ميزة كبيرة لنظام iOS في المستقبل القريب.
لم تنضم شركة Apple إلى الموجة الأخيرة من تعزيز الذكاء الاصطناعي التوليدي، حتى أنها تجنبت عمومًا مصطلحات “AI” أو “الذكاء الاصطناعي” في عروضها التقديمية الرئيسية الأخيرة مقارنة بالعديد من الشركات. ومع ذلك، كان التعلم الآلي، ولا يزال، قدرة أساسية لشركة أبل – في الغالب في الخلفية في خدمة التحسينات الدقيقة لتجربة المستخدم.
يعد استخدام Apple للذكاء الاصطناعي للتعامل مع الصور أحد الأمثلة على التكنولوجيا المستخدمة في الخلفية. عندما تلتقط iThings الصور، تعمل خوارزميات التعلم الآلي على تحديد المواضيع ووضع علامات عليها، وتشغيل التعرف البصري على الأحرف، وإضافة الروابط.
في عام 2024، هذا النوع من الذكاء الاصطناعي غير المرئي لن يفي بالغرض. يروج منافسو شركة Apple للذكاء الاصطناعي التوليدي باعتباره قدرة أساسية لكل جهاز وتطبيق. وفقا لآخر الأوقات المالية تقرير، قامت شركة Apple بشراء شركات الذكاء الاصطناعي بهدوء وتطوير نماذج لغوية كبيرة خاصة بها لضمان قدرتها على تحقيق النجاح.
ميزة الأجهزة أبل
تتعامل وحدات المعالجة العصبية (NPUs) في السيليكون المنزلي من Apple مع تطبيقات الذكاء الاصطناعي الحالية. استخدمت Apple المسرعات، التي تسميها “المحركات العصبية” منذ ظهور نظام A11 على الرقاقة لأول مرة في عام 2017، وتستخدمها للتعامل مع أعباء عمل التعلم الآلي الأصغر لتحرير وحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU) بالجهاز للقيام بمهام أخرى.
تعتبر وحدات NPU من Apple قوية بشكل خاص. تم العثور على A17 Pro في ايفون 15 برو قادر على دفع 35 TOPS، أي ضعف سابقتها، وحوالي ضعف ذلك بعض وحدات NPU التي تقدمها Intel وAMD للاستخدام في أجهزة الكمبيوتر.
أحدث شرائح Snapdragon من Qualcomm موجودة تمامًا مع Apple من حيث أداء NPU. مثل Apple، تتمتع Qualcomm أيضًا بسنوات من الخبرة في مجال NPU في الأجهزة المحمولة. تعتبر AMD وIntel جديدة نسبيًا في هذا المجال.
لم تشارك Apple أداء الفاصلة العائمة أو الأعداد الصحيحة لوحدة معالجة الرسومات الخاصة بالرقاقة، على الرغم من أنها روجت لبراعتها في تشغيل الألعاب، مثل Resident Evil 4 Remake وAssassin’s Creed Mirage. يشير هذا إلى أن القوة الحسابية ليست العامل المقيد لتشغيل نماذج الذكاء الاصطناعي الأكبر على النظام الأساسي.
ومما يدعم ذلك أيضًا حقيقة أن سلسلة السيليكون M من Apple، المستخدمة في خطوط Mac وiPad، أثبتت فعاليتها بشكل خاص في تشغيل أعباء عمل استدلال الذكاء الاصطناعي. في اختباراتنا، نظرًا لوجود ذاكرة كافية – واجهنا مشكلة مع أقل من 16 جيجابايت – كان جهاز M1 Macbook Air الذي يبلغ عمره الآن ثلاث سنوات أكثر من قادر على تشغيل Llama 2 7B بدقة 8 بت، وكان أكثر سرعة مع 4 بت نسخة كمية من النموذج. بالمناسبة، إذا كنت تريد تجربة ذلك على جهاز M1 Mac، Olma.ai يجعل تشغيل Llama 2 أمرًا سهلاً.
حيث قد تضطر شركة Apple إلى تقديم تنازلات فيما يتعلق بالأجهزة، فهي تتعلق بالذاكرة.
بشكل عام، تحتاج نماذج الذكاء الاصطناعي إلى حوالي غيغابايت من الذاكرة لكل مليار معلمة، عند التشغيل بدقة 8 بت. يمكن خفض هذا إلى النصف إما عن طريق الانخفاض إلى دقة أقل، مثل Int-4، أو عن طريق تطوير نماذج أصغر ومكممة.
أصبح Llama 2 7B نقطة مرجعية مشتركة لأجهزة الكمبيوتر والهواتف الذكية التي تعمل بتقنية الذكاء الاصطناعي نظرًا لصغر حجمها نسبيًا ومتطلبات الحساب عند تشغيل أحجام دفعات صغيرة. باستخدام التكميم 4 بت، يمكن تقليل متطلبات النموذج إلى 3.5 جيجابايت.
ولكن حتى مع وجود ذاكرة وصول عشوائي (RAM) تبلغ 8 جيجابايت في iPhone 15 Pro، فإننا نشك في أن الجيل التالي من هواتف Apple قد يحتاج إلى المزيد من الذاكرة، أو ستحتاج النماذج إلى أن تكون أصغر حجمًا وأكثر استهدافًا. من المحتمل أن يكون هذا أحد الأسباب التي دفعت شركة Apple إلى اختيار تطوير نماذجها الخاصة بدلاً من اختيار نماذج مثل Stable Diffusion أو Llama 2 للتشغيل على Int-4، كما رأينا من Qualcomm.
هناك أيضًا بعض الأدلة التي تشير إلى أن شركة Apple ربما وجدت طريقة للتغلب على مشكلة الذاكرة. كما رصدت الأوقات المالية، في شهر ديسمبر الماضي، نشر باحثون من شركة Apple [PDF] ورقة توضح القدرة على تشغيل LLMs على الجهاز باستخدام ذاكرة فلاش.
توقع اتباع نهج أكثر تحفظًا تجاه الذكاء الاصطناعي
عندما تقدم شركة Apple وظائف الذكاء الاصطناعي على منصاتها المكتبية والهواتف المحمولة، فإننا نتوقع أنها ستتبع نهجًا محافظًا نسبيًا.
إن تحويل Siri إلى شيء لا يشعر الناس بضرورة التحدث إليه مثل طفل في مرحلة ما قبل المدرسة يبدو مكانًا واضحًا للبدء. قد يعني القيام بذلك إعطاء LLM مهمة تحليل المدخلات في نموذج يمكن لـ Siri فهمه بسهولة أكبر، حتى يتمكن الروبوت من تقديم إجابات أفضل.
يمكن أن يصبح Siri أقل ارتباكًا إذا قمت بصياغة استعلام بطريقة ملتوية، مما يؤدي إلى استجابات أكثر فعالية.
من الناحية النظرية، ينبغي أن يكون لهذا بعض الفوائد. الأول هو أن شركة Apple يجب أن تكون قادرة على الإفلات من استخدام نموذج أصغر بكثير من شيء مثل Llama 2. والثاني، هو أنها يجب أن تتجنب إلى حد كبير مشكلة إنتاج LLM لاستجابات خاطئة.
قد نكون مخطئين، لكن شركة Apple لديها سجل حافل بالتأخر في تطبيق أحدث التقنيات، ولكنها بعد ذلك تحقق النجاح حيث فشل الآخرون من خلال تخصيص الوقت لتحسين الميزات وصقلها حتى تصبح مفيدة بالفعل.
وعلى الرغم من ذلك، لم يثبت الذكاء الاصطناعي التوليدي نجاحه بعد: رهان برنامج الدردشة الكبير من Microsoft على بث الحياة في محرك البحث المفضل لدى أي شخص Bing لم يترجم إلى زيادة كبيرة في حصة السوق.
وفي الوقت نفسه، حصلت شركة أبل على التاج في عام 2024 أعلى بائع الهواتف الذكية أثناء نشر الذكاء الاصطناعي غير المرئي فقط. ®