الرئيسيةالذكاء الاصطناعي (AI)حان الوقت للاعتقاد في لاأدرية الذكاء الاصطناعي

حان الوقت للاعتقاد في لاأدرية الذكاء الاصطناعي

إعلانات
إعلانات
إعلانات
إعلانات


الذكاء الاصطناعي حقيقي. ولكن على الرغم من حقيقة أن الذكاء الاصطناعي (AI) والتعلم الآلي (ML) موجودان معنا بالتأكيد، إلا أنه لا يزال هناك حاجة إلى مستوى معين من عدم اليقين بشأن الذكاء الاصطناعي. وبشكل أكثر تحديدا، نحتاج إلى تبني موقف محايد فيما يتعلق بالمكونات التي تجتمع معا لبناء ذكاء الذكاء الاصطناعي لدينا. نحن نتحدث بالطبع عن وصول نماذج اللغات الكبيرة (LLMs) الجديدة والمحدثة، والتي تدعم معرفة الذكاء الاصطناعي بأشكالها وأحجامها وأشكالها المختلفة.

بقدر ما تتاح للمؤسسات الآن فرصة لنشر تطبيقات الذكاء الاصطناعي المؤسسية التي لديها القدرة على تغيير العمليات التجارية، فمن الأهمية بمكان لأي شركة تقوم بتقييم حلول الذكاء الاصطناعي أن تفهم كيفية عملها مع مختلف ماجستير إدارة الأعمال المتاحة والتي ستقدم أكبر المزايا.

على هذا النحو، ستكون اللاأدرية في مجال الذكاء الاصطناعي أمرًا حيويًا.

ما هي لاأدرية الذكاء الاصطناعي؟

لا تعتبر اللاأدرية للذكاء الاصطناعي ممارسة رسمية أو نهجًا متوافقًا مع معايير الصناعة أو منهجية محددة في حد ذاتها، فهي مثل أي شكل من أشكال اللاأدرية لتكنولوجيا المعلومات من حيث أنها تدعو إلى اعتماد تقنيات وعمليات وممارسات وأدوات ومكونات عامة قابلة للتشغيل البيني. تنطبق اللاأدرية الخاصة بتكنولوجيا المعلومات والذكاء الاصطناعي على كل من الأجهزة والبرمجيات على وجه الخصوص، مما يعني الحفاظ على عقل متفتح (مجازيًا وحرفيًا) فيما يتعلق بموارد معرفة البيانات التي نستخدمها لبناء نماذج الذكاء الاصطناعي لأي عدد من حالات الاستخدام التجاري.

تعتقد شركة BlueFlame AI، التي تقدم منصة ذكاء اصطناعي توليدية لمديري الاستثمار البديل، أن الوقت قد حان للشركات لتبني منهج LLM والبحث عن حلول الذكاء الاصطناعي التي تعتبر نموذج لغة كبير (LLM) وحياديًا لمزودي الذكاء الاصطناعي. تنشر BlueFlame منصة LLM المحايدة الخاصة بها لمساعدة الشركات على اختيار أفضل LLM لمهام محددة يمكنها تقليل المخاطر وتحسين الأداء والكفاءة.

“الحقائق واضحة ومباشرة – يمكننا القول أن التحسين والتخصيص والمرونة هي ثلاث فوائد مهمة يمكن أن تقدمها حلول الذكاء الاصطناعي غير المعتمدة على LLM، مع كون التحسين أمرًا أساسيًا لأنه يسمح للمستخدمين باختيار النموذج المناسب لكل مهمة محددة بناءً على قوة النموذج ونقاط ضعفه. “، يؤكد جيمس تيدمان، رئيس أوروبا لشركة BlueFlame AI. “ستكون للشركات التي تستخدم حلول الذكاء الاصطناعي غير المعتمدة على LLM أكبر الأثر لأنها ستقلل من تحيزات النماذج وتقلل من الاعتماد على أي ماجستير إدارة أعمال واحد. إذا كان هناك انقطاع في LLM، فستحتاج الشركات إلى أن تركز LLMs المتنوعة على بديل دون اضطرابات كبيرة. تضمن مناهج LLM المحايدة أن أعمالك لن تضطر إلى التعامل مع انقطاع الخدمة أو مشكلات الأداء.

وقت متقلب في الذكاء الاصطناعي

يتطلب النهج الحيادي لـ LLM أن يفهم مطورو البرامج قدرات كل LLM وقيودها وتعقيداتها. يمكن القول إن تقلب بعض أحداث الذكاء الاصطناعي (تنقلات الوظائف، والمنصات سريعة الحركة، وعمليات الاستحواذ، وما إلى ذلك) في أحداث عام 2023 قد أظهر لنا مدى خطورة الاعتماد على ماجستير واحد في إدارة الأعمال. يُقترح أن النهج اللاأدري (أو على الأقل نهج أكثر اللاأدرية) يمكن أن يضمن تقليل التعطيل الناتج عن تغييرات المنتج أو الأسعار، أو انقطاع الخدمة، أو أكثر من ذلك. هذا النوع من القدرة على التكيف هو أمر بالغ الأهمية في مشهد الذكاء الاصطناعي المتطور اليوم.

“قد تتطلب النماذج المختلفة استراتيجيات مختلفة لإدارة البيانات أو معالجتها. وقال تيدمان: “سيحتاج المطورون إلى واجهات برمجة تطبيقات قوية (APIs) وحلول برمجية وسيطة بسبب التعقيد المتزايد لعمليات تكامل LLM المتعددة”. “نظرًا لأن كل منها لديه سلوكيات التعلم الخاصة به، فمن المهم التأكد من أن LLM يقدم نتائج متسقة وموثوقة.”

حواجز حماية الذكاء الاصطناعي للمؤسسات

سيكون الحفاظ على الأمان والامتثال أولوية رئيسية أخرى لأي تطبيقات الذكاء الاصطناعي الخاصة بمؤسسات الأعمال. ويستعد المنظمون بالفعل لمراجعة المساحة، خاصة بعد قانون الذكاء الاصطناعي للاتحاد الأوروبي. إذًا، ما هي أفضل الممارسات التي يمكن للشركات اتباعها للتأكد من امتثالها؟ يوضح تيدمان أن التحديث المنتظم لبروتوكولات الأمان للحماية من المعلومات الحساسة التي تتم معالجتها بواسطة مختلف حاملي LLM سيدعم أمان البيانات.

“إن التأكد من وجود اتفاقيات تجارية سارية لمنع استخدام البيانات للتدريب النموذجي والالتزام بقوانين الخصوصية مثل القانون العام لحماية البيانات (GDPR) أو قانون خصوصية المستهلك في كاليفورنيا (CCPA) سيدعم متطلبات الخصوصية. وسيكون من المهم أيضًا تنفيذ ضوابط وصول صارمة وآليات مصادقة لمنع الوصول غير المصرح به إلى أنظمة الذكاء الاصطناعي أو البيانات الحساسة.

أكد فريق BlueFlame مجددًا أن التدقيق المنتظم لأنظمة الذكاء الاصطناعي بحثًا عن الثغرات الأمنية ومراقبة الأنشطة الضارة سيبقي المؤسسات يقظة. يجب على الشركات أيضًا التأكد من أن حلول الذكاء الاصطناعي الخاصة بها تتوافق مع المعايير واللوائح الخاصة بالصناعة، خاصة في قطاعات مثل الخدمات المالية والرعاية الصحية والقانونية.

“من المهم أن تحافظ الشركات على الشفافية في كيفية استخدام أنظمة الذكاء الاصطناعي الخاصة بها للبيانات ومعالجتها، وإبلاغ أصحاب المصلحة بنماذج الذكاء الاصطناعي المستخدمة وممارسات التعامل مع البيانات الخاصة بهم. واختتم تيدمان حديثه قائلاً: “إن الشركات التي يمكنها الاستفادة من حلول الذكاء الاصطناعي المحايدة LLM لتحسين الأداء وتخفيف المخاطر سيكون لها التأثير الأكبر في ثورة الذكاء الاصطناعي القادمة”.

اليونانية للمعرفة: gnōsis

ربما ليس من قبيل الصدفة أن – كما قال جافين رايت يشرح موقع TechTarget هنا – كلمة لاأدري تأتي من اليونانية أ- وتعني بدون وغنوسيس وتعني المعرفة. “في تكنولوجيا المعلومات، يُترجم هذا إلى قدرة شيء ما على العمل دون “معرفة” أو طلب أي شيء من التفاصيل الأساسية للنظام الذي يعمل فيه.”

قد نطور مصطلح لاأدرية الذكاء الاصطناعي ليصبح ذكاءً منفتحًا أو عقلانيًا أو ربما حتى ذكاءً اصطناعيًا غير مؤمن في المستقبل، من يدري. ما يمكننا قوله هو أن الإيمان بالذكاء الاصطناعي أمر مهم، لكن الإيمان بالذكاء الاصطناعي غير العلماني المفتوح لجميع مصادر المعلومات قد يكون أكثر أهمية.

دعونا منظمة العفو الدولية.

اتبعني تويتر أو ينكدين.



إعلانات
مقالات ذات صلة
- إعلانات -

الأكثر شهرة

- إعلانات -