ترى العديد من الشركات تحديات في استخدام الذكاء الاصطناعي التوليدي لأنها قلقة بشأن المخاطر. تأتي المخاطر في أشكال عديدة – الاتساق، والامتثال، والأمن، والانتهاك. التهديد الأخير، وهو الانتهاك، يدور في أذهان العديد من القادة. ماذا لو قام منشئ النموذج بتدريب نموذجه على محتوى لا يتمتع بحقوق الملكية الفكرية الكافية له؟ وماذا لو قام النموذج بإنشاء محتوى يبدو متميزًا ومختلفًا بشكل كبير عن العمل الأصلي؟
في الواقع، العديد من منشئي المحتوى يتخذون إجراءات قانونية ضد موفري الذكاء الاصطناعي التوليدي. في عام 2023، رفع الفنانون سارة أندرسن وكيلي ماكيرنان وكارلا أورتيز دعوى قضائية جماعية تزعم أن Stable AI استخدمت أعمالهم المحمية بحقوق الطبع والنشر دون إذنهم في تدريب Stable Diffusion. في وقت لاحق من العام الماضي، أصدر القاضي قرارًا كتابيًا برفض جميع الدعاوى المتعلقة بالانتهاك المباشر لحقوق الطبع والنشر باستثناء دعوى واحدة نيابة عن مدعٍ واحد فقط، لكنه قدم للمدعين الإذن بتعديل المطالبات المرفوضة. كما رفعت شركة Getty Images، التي تقدم صور المخزون، دعوى قضائية ضد Stability AI، متهمة إياها بإساءة استخدام أكثر من 12 مليون صورة Getty لتدريب نظام توليد الصور Stable Diffusion AI الخاص بها. في 27 ديسمبر 2023، اوقات نيويورك رفعت دعوى قضائية ضد Microsoft وOpenAI في شكوى انتهاك حقوق الطبع والنشر التي تزعم أن الشركتين استخدمتا محتوى الصحيفة لتدريب نماذج لغوية كبيرة. في أوائل يناير/كانون الثاني، قدم اثنان من مؤلفي الكتب الواقعية شكوى جماعية ضد مايكروسوفت وOpen AI، زاعمين أنهم “سرقوا” أعمالهم ببساطة. قد تستغرق هذه الشكاوى بعض الوقت لتصفية النظام القانوني، وقد تشير الدعوى الأولى أعلاه إلى كيفية حكم القضاة في القضايا المستقبلية.
وفي حين أن حل هذه المطالبات غير واضح، فهل هناك أي طرق للتخفيف من المخاطر في هذه الأثناء؟ على سبيل المثال، إحدى الطرق البسيطة للحد من مخاطر انتهاك حقوق الطبع والنشر هي أن يتجنب المستخدمون النهائيون الإشارة المحددة إلى الأعمال أو المؤلفين أو الرسامين المعروفين والمشهورين عند مطالبات الصياغة. في حين أن مثل هذه الهندسة السريعة قد لا تقضي على المخاطر، إلا أنها تقلل من احتمالية أن يؤدي الناتج الناتج إلى إعادة تشكيل عمل محمي بحقوق الطبع والنشر.
فيما يلي بعض التكتيكات الأخرى التي اقترحتها المنظمات المختلفة.
إنهم ببساطة يعوضونك
عند رفع دعوى قضائية بتهمة انتهاك حقوق الطبع والنشر، تقوم Microsoft بتعويض العملاء التجاريين عن أدوات Copilot الخاصة بها، والتي توفر مساعدة ذكاء اصطناعي توليدية كجزء من Office وGitHub ومنتجات أخرى. تسمي Microsoft هذا التزام حقوق الطبع والنشر للعميل، وتطلب من العملاء تنفيذ التزاماتهم الحواجز والالتزامات في التأهل. على سبيل المثال، بالنسبة لإنشاء نص مثل “المحتوى الصحفي أو المساعدة في الكتابة أو سيناريوهات إنشاء النص المفتوح الأخرى”، تتطلب Microsoft إعدادات محددة لتصفية المحتوى. “يجب تكوين نموذج نص المادة المحمية في وضع التصفية. يجب تكوين نموذج الهروب من السجن في وضع التصفية. مثل مايكروسوفت، تقدم شركة OpenAI “درع حقوق الطبع والنشر” التعويضي، ولكنها تطلب من المستخدمين تلبية بعض القيود والتوقعات للتأهل لهذه الحماية – كما تفعل أمازون، وجوجل، وآي بي إم. نظرًا لأن موفري الذكاء الاصطناعي التوليدي في وضع أفضل بكثير لمعرفة المحتوى الذي يتم تدريب نماذجهم عليه، فإن التعويض يوفر مستوى واحدًا من الحماية للمستخدمين. قد تغطي هذه التعويضات الأضرار والتكاليف القانونية حتى حد معين بالدولار. ولكن هل يمكن أن يظل المستخدم عالقًا في الرسوم الباهظة؟
إنهم يؤمنون حقوق ملكية فكرية كافية في المحتوى الذي يستخدمونه للتدريب أو تقديم نماذجهم
يستخدم موفرو الذكاء الاصطناعي التوليدي ثلاثة أساليب مختلفة لتأمين حقوق الملكية الفكرية اللازمة في محتوى التدريب. يجوز للموفرين (1) التفاوض مع موفري المحتوى لاستخدام المواد المحمية بحقوق الطبع والنشر، (2) تدريب العارضات على المواد التي يمتلكونها، (3) أو الدفع لموفري المحتوى كلما تم استخدام المحتوى الخاص بهم أو ما شابه ذلك.
يحاول بعض موفري الذكاء الاصطناعي التفاوض على صفقات مع منشئي المحتوى بحيث يمكن استخدام المحتوى لتدريب النماذج دون خوف من إجراءات الانتهاك. وبحسب ما ورد كان لدى Open AI أشهر من المفاوضات مع الآن و اخرين. وفقًا لتقارير عديدة، عرضت شركة OpenAI مبلغًا يتراوح بين مليون و5 ملايين دولار سنويًا لترخيص المقالات الإخبارية المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي الخاصة بها.
في بعض الحالات، يُطلق على منشئي المحتوى اسم “المحتوى” بشكل أكثر ملاءمة الموزعين — يقومون ببناء الذكاء الاصطناعي التوليدي الخاص بهم. تم إطلاق صور غيتي الذكاء الاصطناعي التوليدي من iStock لشريحة من عملائها، بما في ذلك الشركات الصغيرة والمصممين والمسوقين. تم تدريب نماذج الذكاء الاصطناعي التوليدية هذه حصريًا باستخدام بيانات خاصة من مكتبات Getty Images الإبداعية. تريد Getty Images أن يكون عملاؤها واثقين من المحتوى الذي يقومون بإنشائه. وبالمثل، أطلقت شركة أدوبي أدوبي اليراع، أداة الذكاء الاصطناعي الإبداعية الخاصة بها والتي تم تدريبها على صور مخزون Adobe والمحتويات المرخصة الأخرى.
وكمثال آخر، قامت شركة تدريب تستخدم الصور الرمزية لتقديم برامج تدريبية بتعيين ممثلين بشريين (تعتمد معظم الصور الرمزية للذكاء الاصطناعي على أشخاص حقيقيين) مع فكرة واضحة مفادها أنه عندما يستخدم العميل صورة الممثل لتوفير التدريب، فإن الممثل سيحصل على أجر مقابل هذا يستخدم.
هل سيحميك المصدر المفتوح؟
إن استخدام النماذج مفتوحة المصدر لا يحد من مخاطر انتهاك حقوق الطبع والنشر في جميع الحالات. قد يظل المحتوى الناتج عن الذكاء الاصطناعي والذي تنتجه النماذج مفتوحة المصدر خاضعًا لإجراءات انتهاك حقوق الطبع والنشر. لا يحدد نموذج الذكاء الاصطناعي نفسه ما إذا كان الناتج ينتهك حقوق الطبع والنشر لأي شخص؛ وبدلاً من ذلك، تنشأ مخاطر انتهاك حقوق الطبع والنشر من استخدام المحتوى المحمي بحقوق الطبع والنشر كجزء من بيانات التدريب وعلاقتها بمخرجات النموذج. ولكن هل تزداد المخاطر لأن أياً من اللاعبين الرئيسيين لم يتفاوض على اتفاقيات مع مقدمي المحتوى؟
بالنظر إلى ما نحن فيه، ما الذي قد يتطلبه الأمر من المؤسسات لاستخدام الذكاء الاصطناعي التوليدي في إنشاء المحتوى؟ هل الضمانات التي تقدمها شركات التكنولوجيا الكبرى كافية، أم أن المنظمات تريد المزيد من الضمانات؟ هل من الطبيعي أن يحدوا من نطاق مسارات عمل إنشاء المحتوى الخاصة بهم؟
اتبعني ينكدين. الدفع لي موقع إلكتروني.