تتعرض الرؤساء التنفيذيون لخمس شركات للتواصل الاجتماعي، بما في ذلك Meta وTikTok وX (Twitter سابقًا)، لاستجواب من قبل أعضاء مجلس الشيوخ يوم الأربعاء حول كيفية منع الاستغلال الجنسي للأطفال عبر الإنترنت.
ودعت اللجنة القضائية بمجلس الشيوخ إلى الاجتماع لمحاسبة الرؤساء التنفيذيين على ما قالوا إنه فشل في منع إساءة معاملة القاصرين، والسؤال عما إذا كانوا سيدعمون القوانين التي اقترحها أعضاء اللجنة لمعالجة المشكلة.
إنها مشكلة تزداد سوءًا، وفقًا للمركز الوطني للأطفال المفقودين والمستغلين، الذي يقول إن التقارير عن مواد الاعتداء الجنسي على الأطفال (CSAM) وصلت إلى مستوى قياسي في العام الماضي بأكثر من 36 مليونًا، وفقًا لما أوردته منظمة الصحة العالمية. واشنطن بوست. تم تنبيه المركز الوطني للأطفال المفقودين والمستغلين CyberTipline، وهو نظام مركزي في الولايات المتحدة للإبلاغ عن الاعتداءات الجنسية العنيفة عبر الإنترنت، إلى أكثر من 88 مليون ملف في عام 2022، مع وصول ما يقرب من 90% من التقارير من خارج البلاد.
ظهر مارك زوكربيرج من Meta، وShou Chew من TikTok، وليندا ياكارينو من X إلى جانب جيسون شبيجل من Snap وجيسون سيترون من Discord للإجابة على أسئلة اللجنة القضائية بمجلس الشيوخ. وبينما ظهر زوكربيرج وشيو طوعًا، كان على اللجنة أن تخدم شبيغل وسيترون وياكارينو. مذكرات الاستدعاء.
افتتح السيناتور ريتشارد دوربين، وهو ديمقراطي من إلينوي ورئيس اللجنة، جلسة الاستماع بمقطع فيديو يظهر ضحايا الاستغلال الجنسي للأطفال عبر الإنترنت، بما في ذلك عائلات الأطفال الذين ماتوا منتحرين بعد استهدافهم من قبل المحتالين عبر الإنترنت.
أخبر السيناتور ليندسي جراهام، وهو جمهوري من ولاية كارولينا الجنوبية والعضو البارز، الحضور عن ذلك جافين جوفي، الابن البالغ من العمر 17 عامًا لنائب مجلس ولاية كارولينا الجنوبية براندون جوفي، الذي توفي منتحرًا بعد تعرضه للابتزاز الجنسي على إنستغرام. وقال جراهام للرؤساء التنفيذيين: “أيديكم ملطخة بالدماء”، وخص بالذكر زوكربيرج على وجه الخصوص.
وأعرب العديد من المشرعين المجتمعين عن إحباطهم مما قالوا إنه عدم كفاية الجهود التي بذلتها شركات وسائل التواصل الاجتماعي لمعالجة المشكلة، وأكدوا حرصهم على التحرك. في العام الماضي، بالإضافة إلى عقد عدد من جلسات الاستماع، قامت اللجنة القضائية بذلك ذكرت عدد من مشاريع القوانين التي تهدف إلى حماية الأطفال عبر الإنترنت في قاعة مجلس الشيوخ، بما في ذلك كسب قانون تكنولوجيا المعلومات, الأمر الذي من شأنه أن يزيل حصانة شركات التكنولوجيا من المسؤولية المدنية والجنائية بموجب قوانين مواد الاعتداء الجنسي على الأطفال.
وفي شهاداتهم، عرض الرؤساء التنفيذيون جميعهم التدابير التي كانوا يتخذونها لمنع الأضرار التي يتعرض لها الأطفال عبر الإنترنت. ومع ذلك، عند الضغط عليهم بشأن ما إذا كانوا سيدعمون مشاريع القوانين التي قدمتها اللجنة القضائية، اعترض الكثيرون.
في مرحلة ما، سأل السيناتور جوش هاولي، وهو جمهوري من ولاية ميسوري، زوكربيرج عما إذا كان يرغب في الاعتذار لآباء الأطفال المتأثرين بانتهاكات الاعتداء الجنسي على الأطفال عبر الإنترنت والذين كانوا حاضرين في جلسة الاستماع. وقال زوكربيرغ: “أنا آسف على كل ما مررتم به”. “إنه أمر فظيع. لا ينبغي لأحد أن يمر بالأشياء التي عانت منها عائلاتكم.”
في مناسبات متعددة، سلط الرؤساء التنفيذيون الضوء على استخدام شركاتهم للذكاء الاصطناعي لمعالجة مشكلة الاعتداء الجنسي على الأطفال عبر الإنترنت. في شهادته، سلط سيترون الضوء على الخلاف اكتساب التابعة لشركة Sentropy، وهي الشركة التي طورت حلول إدارة المحتوى القائمة على الذكاء الاصطناعي. قال زوكربيرج إن 99% من المحتوى الذي يزيله Meta يتم اكتشافه تلقائيًا بواسطة أدوات الذكاء الاصطناعي. ومع ذلك، لم يناقش المشرعون ورؤساء التكنولوجيا الدور الذي يلعبه الذكاء الاصطناعي في انتشار أسلحة CSAM.
صور إساءة معاملة الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي
ويضيف ظهور الذكاء الاصطناعي التوليدي إلى المخاوف بشأن الأضرار التي تلحق بالأطفال عبر الإنترنت. يسعى القائمون على إنفاذ القانون في جميع أنحاء العالم جاهدين للتعامل مع عدد كبير من القضايا التي تنطوي على مواد الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي – وهي ظاهرة غير مسبوقة أمام العديد من المحاكم.
على 10 يناير، ممثلة مارفل البالغة من العمر 17 عامًا، زوتشيتل جوميز، التي لعبت دور البطل الخارق المراهق أمريكا تشافيز في فيلم 2022 دكتور غريب في الكون المتعدد من الجنونتحدثت عن مدى صعوبة مسح X من الصور الإباحية التي أنشأها الذكاء الاصطناعي لها.
وفي حديثها في بث صوتي مع الممثل تايلور لوتنر وزوجته، قالت جوميز إن والدتها وفريقها كانوا يحاولون – دون جدوى – إزالة الصور. وتقول: “كانت لديها رسائل بريد إلكتروني تلو الأخرى، ولكن كان هناك الكثير منها وقد تعاملت مع كل شيء”. “بالنسبة لي، لم يكن الأمر أمرًا محيرًا للذهن، ولكنه كان أشبه بـ “لماذا يصعب إزالته؟””
تواجه السلطات مهمة معقدة تتمثل في وقف انتشار CSAM الناتج عن الذكاء الاصطناعي مع تطور التكنولوجيا بوتيرة سريعة وسهولة الوصول إلى أدوات مثل ما يسمى تعري التطبيقات يتزايد، حتى بين الأطفال أنفسهم.
مع تحسن نماذج الذكاء الاصطناعي وتسهيل الوصول إليها، ستصبح أيضًا أكثر صعوبة في مراقبة الشرطة إذا تم استخدامها لأغراض غير قانونية، مثل إنشاء CSAM، وفقًا لدان سيكستون، كبير مسؤولي التكنولوجيا في مؤسسة مراقبة الإنترنت (IWF) ومقرها المملكة المتحدة. ويقول إن العالم بحاجة إلى الاتفاق على حل سريع: “كلما طال انتظارنا للتوصل إلى حل لكل من هذه القضايا المحتملة التي قد تحدث غدًا، فإن الفرصة الأكبر هي أن تكون قد حدثت بالفعل ثم نطاردها وراءنا”. ، وأنت تحاول التراجع عن الأضرار التي حدثت بالفعل.
مشكلة متنامية
بالنسبة للجزء الأكبر، فإن إنشاء أي نوع من CSAM يعتبر بالفعل جريمة على نطاق واسع، بما في ذلك استخدام الذكاء الاصطناعي. في أحدث صوره تقرير، وجد المركز الدولي للأطفال المفقودين والمستغلين أن 182 دولة من أصل 196 دولة لديها تشريعات تتناول على وجه التحديد الاعتداءات الجنسية والاعتداءات الجنسية أو كافية لمكافحتها. على سبيل المثال، القانون الفيدرالي الأمريكي يعرّف CSAM بأنه أي تصوير مرئي لسلوك جنسي صريح يتعلق بقاصر – والذي قد يتضمن “صورًا رقمية أو صورًا تم إنشاؤها بواسطة الكمبيوتر لا يمكن تمييزها عن قاصر فعلي” بالإضافة إلى “الصور التي تم إنشاؤها أو تكييفها أو تعديلها، ولكن يبدو أنها تصور قاصرًا فعليًا يمكن التعرف عليه”. “. في أيرلندا، القانون أكثر صرامة: يعتبر الاعتداء الجنسي على الأطفال غير قانوني، سواء كان ذلك محاكاة أم لا.
وقد تمت بالفعل إدانة بعض الجناة بموجب هذه القوانين. في سبتمبر، أ محكمة كوريا الجنوبية حكم على رجل في الأربعينيات من عمره بالسجن لمدة عامين ونصف لاستخدامه الذكاء الاصطناعي لتوضيح مئات الصور الإباحية الواقعية للأطفال. وفي إبريل الماضي، أ القاضي كيبيك حكم على رجل يبلغ من العمر 61 عامًا بالسجن لمدة ثلاث سنوات لاستخدامه تقنية التزييف العميق لإنشاء مقاطع فيديو اصطناعية للاعتداء الجنسي على الأطفال. وفي نفس الشهر، في نيويورك، حُكم على رجل يبلغ من العمر 22 عامًا بالسجن لمدة ستة أشهر و10 سنوات من المراقبة باعتباره مرتكب جريمة جنسية بعد اعترافه بالذنب في عدة تهم تتعلق بإنشاء ونشر صور جنسية صريحة لأكثر من اثنتي عشرة امرأة قاصر.
اقرأ أكثر: تايلور سويفت Deepfakes تسلط الضوء على الحاجة إلى حماية قانونية جديدة
لكن حل هذه الحالات ليس سهلاً دائمًا. اسبانيا كانت هزت من قبل القضية أكثر من 20 فتاة تتراوح أعمارهن بين 11 و17 عامًا تم تداول صورهن العارية بواسطة الذكاء الاصطناعي عبر الإنترنت في سبتمبر. لكن الأمر استغرق بعض الوقت حتى تتمكن سلطات إنفاذ القانون من تحديد المسؤولية الجنائية للجناة المزعومين، الذين يُعتقد أنهم أيضًا قاصرون. قال مانويل كانسيو، أستاذ القانون الجنائي في جامعة مدريد المستقلة، لمجلة TIME: “إذا كانت قضية واضحة، فسيعرف الجميع مكان العثور عليها وفي أي قسم من القانون”. [Spanish] القانون الجنائي، لكانت التهم قد تم توجيهها بالفعل”. كما أخبر ديفيد رايت، مدير مركز الإنترنت الآمن في المملكة المتحدة، مجلة TIME أن منظمة حماية الطفل تلقت أيضًا تقارير عن قيام أطفال المدارس بإنشاء ونشر صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لأقرانهم.
يمكن لتكنولوجيا الذكاء الاصطناعي اليوم استخدام أي صورة لطفل غير متوقع، أو إنشاء صورة لا تستند إلى طفل حقيقي، لإنشاء مواد اعتداء جنسي ببضع نقرات فقط، على الرغم من أن العديد من المطورين لا يسمحون باستخدام مثل هذه المواد. مرصد ستانفورد للإنترنت وجد أنه تم تدريب بعض نماذج الذكاء الاصطناعي على مجموعات البيانات التي تحتوي على ما لا يقل عن 3000 صورة لـ CSAM المعروفة، والتي تم الحصول عليها من منصات رئيسية مثل X و رديت– على الرغم من أن سياساتهم تحظر نشر مثل هذا المحتوى. لم يستجب Reddit وX لطلبات التعليق على التقرير. يقول سيكستون إن الاتحاد الدولي لكرة القدم تلقى أيضًا تقارير عن إعادة استخدام صور الأطفال الضحايا السابقين لإنشاء المزيد من صور الاعتداء الجنسي على الأطفال (CSAM) منهم.
يقول ديفيد ثيل، كبير خبراء التكنولوجيا في مرصد ستانفورد للإنترنت، إن أدوات CSAM التي أنشأها الذكاء الاصطناعي تجاوزت الحلول المستخدمة لتتبع المحتوى وإزالته. وقال ثيل: “إنه مجرد تدفق مستمر للمواد الجديدة بدلاً من إعادة تدوير المواد المعروفة، مما يجعل جزء البصمات البصرية صعباً للغاية”.
كيف يمكن إيقاف انتشار AI CSAM؟
يقول مطورو نماذج الذكاء الاصطناعي إن أدواتهم تحتوي على حواجز حماية محددة تمنع إساءة استخدامها. تحظر OpenAI استخدام منشئ الصور الخاص بها DALL-E للصور الجنسية، بينما يتطلب Midjourney أن يكون المحتوى كذلك ص-13. الاستقرار منظمة العفو الدولية قام بتحديث برامجه لجعل إنشاء محتوى للبالغين أكثر صعوبة. لكن بحسب منظمة سلامة الإنترنت ActiveFence، لقد وجد بعض المستخدمين طرقًا لكسر حماية هذه النماذج. وقد دعت قيادة OpenAI صناع القرار إلى التدخل والبدء معلمات حول استخدام نماذج الذكاء الاصطناعي.
إن تطهير جميع مواد الإساءة الموجودة على الإنترنت سيتطلب قدرًا كبيرًا من القوة الحسابية والوقت شركات التكنولوجيا والمنظمات المناهضة للاتجار بالجنس مثل شوكة لقد طوروا تقنيات التعلم الآلي التي تكتشف مواد الاعتداء الجنسي على الأطفال وتزيلها وتبلغ عنها. إحدى التقنيات المستخدمة تسمى مطابقة التجزئة: وهي عملية تمكن الأنظمة الأساسية من وضع علامات على الملفات المتشابهة بصريًا. والطريقة الأخرى هي استخدام أدوات التصنيف وأدوات التعلم الآلي التي تشير إلى احتمالية أن يكون المحتوى عبارة عن مواد CSAM.
وهناك حل آخر قيد الدراسة وهو الحد من الوصول إلى التكنولوجيا. يجادل المدافعون عن نماذج الذكاء الاصطناعي مفتوحة المصدر بأن المصادر المفتوحة تعزز التعاون بين المستخدمين، وتعزز الشفافية من خلال التخلي عن قبضة الشركات التي تديرها، كما تعمل على إضفاء الطابع الديمقراطي على الوصول. يقول سيكستون إنه على الرغم من أن إمكانية الوصول للجميع قد تبدو مواتية من حيث المبدأ، إلا أن هناك مخاطر. “في الواقع، التأثير الذي نراه من وضع تكنولوجيا قوية مثل هذه في أيدي الجميع يعني أنك تضعها في أيدي مرتكبي الجرائم الجنسية ضد الأطفال، وأنت تضعها في أيدي المتحرشين بالأطفال والجناة والجريمة المنظمة. وسوف يقومون بإنشاء محتوى ضار من ذلك.
مع ذلك، تقول ريبيكا بورتنوف، رئيسة قسم علوم البيانات في Thorn، إن الجدل حول الوصول قد خلق ثنائيًا زائفًا بين النماذج مفتوحة المصدر والنماذج المغلقة، وتقترح أن أكبر فرصة لوقف انتشار CSAM الناتجة عن الذكاء الاصطناعي هي مع المطورين. وتقول إن المطورين يجب أن يركزوا على إنشاء نماذج “السلامة حسب التصميم” للتخفيف من الأضرار التي تلحق بالأطفال بدلاً من اتخاذ تدابير وقائية استجابة رد فعل للتهديدات القائمة.
تؤكد بورتنوف على أن الوقت هو جوهر الأمر. وتقول: “لن يتباطأ”. “وهذا يعيدني إلى مفهوم استخدام كل أداة متاحة لدينا من أجل معالجتها بشكل صحيح. وتشمل هذه الأدوات الأدوات التي نبنيها بالفعل، وهي تتضمن التعاون مع الهيئات التنظيمية، وتتضمن التعاون مع شركات التكنولوجيا.