الرئيسيةالذكاء الاصطناعي (AI)تقول دراسة جديدة إن روبوتات الدردشة المدعمة بالذكاء الاصطناعي تقدم معلومات انتخابية...

تقول دراسة جديدة إن روبوتات الدردشة المدعمة بالذكاء الاصطناعي تقدم معلومات انتخابية غير دقيقة إلى حد كبير

إعلانات
إعلانات
إعلانات
إعلانات


تنتج الأدوات الجديدة التي تعمل بالذكاء الاصطناعي معلومات انتخابية غير دقيقة أكثر من نصف الوقت، بما في ذلك الإجابات الضارة أو غير الكاملة، وفقًا لتقرير جديد. بحث.

تأتي هذه الدراسة، التي أجرتها AI Democracy Projects ومؤسسة Proof News الإعلامية غير الربحية، في الوقت الذي تجري فيه الانتخابات التمهيدية الرئاسية الأمريكية في جميع أنحاء الولايات المتحدة ومع تحول المزيد من الأمريكيين إلى برامج الدردشة الآلية مثل Gemini من Google وGPT-4 من OpenAI للحصول على المعلومات. وقد أثار الخبراء مخاوف أن ظهور أشكال جديدة قوية من الذكاء الاصطناعي يمكن أن يؤدي إلى حصول الناخبين على معلومات كاذبة ومضللة، أو حتى تثبيط الناس عن الذهاب إلى صناديق الاقتراع.

تم الإعلان عن أحدث جيل من تكنولوجيا الذكاء الاصطناعي، بما في ذلك الأدوات التي تتيح للمستخدمين إنشاء محتوى نصي ومقاطع فيديو وصوت على الفور تقريبًا، باعتباره إيذانًا بعصر جديد من المعلومات من خلال توفير الحقائق والتحليلات بشكل أسرع من قدرة الإنسان. ومع ذلك، وجدت الدراسة الجديدة أن نماذج الذكاء الاصطناعي هذه تميل إلى اقتراح توجه الناخبين إلى أماكن اقتراع غير موجودة أو اختراع ردود غير منطقية بناءً على معلومات قديمة ومكررة.

على سبيل المثال، استجاب أحد نماذج الذكاء الاصطناعي، Meta’s Llama 2، لمطالبة من خلال الإجابة بشكل خاطئ على أن الناخبين في كاليفورنيا يمكنهم التصويت عن طريق الرسائل النصية، كما وجد الباحثون – التصويت عن طريق الرسائل النصية غير قانوني في أي مكان في الولايات المتحدة، ولم يقم أي من نماذج الذكاء الاصطناعي الخمسة بذلك تم اختبارها – ChatGPT-4 من OpenAI، وMeta’s Llama 2، وGemini من Google، وAnthropic’s Claude، وMixtral من الشركة الفرنسية Mistral – ذكروا بشكل صحيح أن ارتداء الملابس التي تحمل شعارات الحملة الانتخابية، مثل قبعة MAGA، محظور في استطلاعات الرأي في تكساس بموجب ذلك قوانين الدولة.

يعتقد بعض خبراء السياسة أن الذكاء الاصطناعي يمكن أن يساعد في تحسين الانتخابات، مثل تشغيل أجهزة الجدولة التي يمكنها مسح بطاقات الاقتراع بسرعة أكبر من موظفي الاقتراع أو عن طريق الكشف عن الحالات الشاذة في التصويت. حسب إلى معهد بروكينجز. ومع ذلك، فإن مثل هذه الأدوات يجري إساءة استخدامها بالفعل، على سبيل المثال من خلال تمكين الجهات الفاعلة السيئة، بما في ذلك الحكومات، من التلاعب بالناخبين بطرق تؤدي إلى إضعاف العمليات الديمقراطية.

على سبيل المثال، تم إرسال المكالمات الآلية التي أنشأها الذكاء الاصطناعي إلى الناخبين قبل أيام من الانتخابات التمهيدية الرئاسية في نيو هامبشاير الشهر الماضي، مع نسخة مزيفة من صوت الرئيس جو بايدن وحث الناس على عدم التصويت في الانتخابات.


نقاط للحديث: ما مدى قلقنا بشأن الذكاء الاصطناعي؟

وفي الوقت نفسه، يواجه بعض الأشخاص الذين يستخدمون الذكاء الاصطناعي مشكلات أخرى. أوقفت Google مؤخرًا مولد صور Gemini AI مؤقتًا، والذي تخطط لإعادة إطلاقه في الأسابيع القليلة المقبلة، بعد أن أنتجت التكنولوجيا معلومات ذات معلومات غير دقيقة تاريخية واستجابات أخرى مثيرة للقلق. على سبيل المثال، عندما طُلب منك إنشاء صورة لجندي ألماني خلال الحرب العالمية الثانية، عندما كان الحزب النازي يسيطر على الأمة، بدا أن جيميني يقدم صورًا متنوعة عنصريًا، حسب لصحيفة وول ستريت جورنال.

وقالت ماريا كوري، مراسلة السياسة التقنية لدى أكسيوس، لشبكة سي بي إس نيوز: “يقولون إنهم أخضعوا نماذجهم لاختبارات مكثفة تتعلق بالسلامة والأخلاق”. “نحن لا نعرف بالضبط ما هي عمليات الاختبار هذه. يجد المستخدمون أخطاء تاريخية، لذلك يطرح السؤال ما إذا كان سيتم طرح هذه النماذج في العالم في وقت مبكر جدًا.”

نماذج الذكاء الاصطناعي والهلوسة

وقال دانييل روبرتس، المتحدث باسم ميتا، لوكالة أسوشيتد برس إن النتائج الأخيرة “لا معنى لها” لأنها لا تعكس بدقة الطريقة التي يتفاعل بها الأشخاص مع برامج الدردشة الآلية. وقالت Anthropic إنها تخطط لطرح نسخة جديدة من أداة الذكاء الاصطناعي الخاصة بها في الأسابيع المقبلة لتوفير معلومات دقيقة عن التصويت.

في رسالة بالبريد الإلكتروني إلى CBS MoneyWatch، أشار ميتا إلى أن Llama 2 هو نموذج للمطورين – فهو ليس الأداة التي قد يستخدمها المستهلكون.

وقال متحدث باسم Meta: “عندما أرسلنا نفس المطالبات إلى Meta AI – المنتج الذي سيستخدمه الجمهور – وجهت غالبية الردود المستخدمين إلى الموارد للعثور على معلومات موثوقة من سلطات الانتخابات بالولاية، وهذا هو بالضبط كيفية تصميم نظامنا”.

“[L]وقال أليكس ساندرفورد، قائد الثقة والسلامة في الأنثروبيك، لوكالة أسوشييتد برس: “يمكن لنماذج اللغة المزعجة في بعض الأحيان أن “تهلوس” بمعلومات غير صحيحة”.

وقالت OpenAI إنها تخطط “لمواصلة تطوير نهجنا بينما نتعلم المزيد حول كيفية استخدام أدواتنا”، لكنها لم تقدم أي تفاصيل. ولم تستجب جوجل وميسترال على الفور لطلبات التعليق.

“لقد أخافني”

في ولاية نيفادا، حيث سُمح بتسجيل الناخبين في نفس اليوم منذ عام 2019، أكدت أربعة من روبوتات الدردشة الخمسة التي اختبرها الباحثون خطأً أنه سيتم منع الناخبين من التسجيل قبل أسابيع من يوم الانتخابات.

وقال وزير خارجية ولاية نيفادا فرانسيسكو أجيلار، وهو ديمقراطي شارك في ورشة عمل الاختبار الشهر الماضي: “لقد أخافني أكثر من أي شيء آخر، لأن المعلومات المقدمة كانت خاطئة”.

يخشى معظم البالغين في الولايات المتحدة من أن تؤدي أدوات الذكاء الاصطناعي إلى زيادة انتشار المعلومات الكاذبة والمضللة خلال انتخابات هذا العام. وفقا لاستطلاع للرأي أجري مؤخرا من وكالة أسوشيتد برس-مركز NORC لأبحاث الشؤون العامة وكلية السياسة العامة بجامعة شيكاغو هاريس.

ومع ذلك، في الولايات المتحدة، لم يصدر الكونجرس بعد قوانين تنظم استخدام الذكاء الاصطناعي في السياسة. في الوقت الحالي، هذا يترك شركات التكنولوجيا وراء روبوتات الدردشة لتحكم نفسها.

– مع تقارير وكالة أسوشيتد برس.

إعلانات
مقالات ذات صلة
- إعلانات -

الأكثر شهرة

- إعلانات -