
إن عيون ويد اليدين مع الكثير من الأصابع جعل الفن الذي تم إنشاؤه من الذكاء الاصطناعى سهلاً. الآن ، مع تقدم التكنولوجيا ، أصبح من الصعب إخبار العمل البشري من إبداعات الصنع.
مع بعض الخوف من استبدال التصميمات البشرية ، فإن الفن الذي تم إنشاؤه من الذكاء الاصطناعى لديه الكثير من المنتقدين. “نفور الخوارزمية” ، يبدو أن التحيز ضد العمل الذي تم إنشاؤه AI ، ينمو فقط ، و 20 ٪ فقط من البالغين يعتقدون أن الذكاء الاصطناعى سيكون له تأثير إيجابي على الفنون والترفيه.
الفنانون من بين أكثر المعارضين الصوتية ، ليس فقط لأن الذكاء الاصطناعى تقطع بالفعل دخلهم حيث يتم تلبية المزيد من احتياجات الصور من قبل الآلات ، ولكن أيضًا لأن النماذج ربما تكون قد تم تدريبها على عملها.
يقول فيليب ريجر ، باحث ما بعد الدكتوراه بجامعة دارمشتات التقنية: “هذا موضوع مهم للغاية”. ويضيف أن الذكاء الاصطناعى يمكنه تقليد الصور والتلاعب بها بسهولة ، وانتهاك حقوق الطبع والنشر للفنانين.
رداً على ذلك ، قدم الفنانون دعاوى قضائية تزعم أن شركات الذكاء الاصطناعى انتهكت قوانين الملكية الفكرية من خلال التدريب على الأعمال المحمية بحقوق الطبع والنشر. يتجه الآخرون إلى أدوات رقمية لحماية فنهم. لكن الخبراء يقولون إن عمل الفنانين لا يزال ضعيفًا – أكثر مما قد يدركون.
كيف تنتهك الذكاء الاصطناعى حقوق الطبع والنشر للفنانين؟
المولدات الشهيرة مثل Midjourney و Openai’s Dall-E Train على ملايين الأعمال الفنية ، من Classics Renaissance إلى القطع الرقمية الحديثة. تتيح لهم قاعدة البيانات الضخمة هذه تقليد الأنماط البشرية بدقة غريبة ، مما يجعل الأمر أكثر صعوبة من أي وقت مضى لمعرفة الفرق. وجدت دراسة استقصائية لجامعة ييل 2023 أن الطلاب الجامعيين يمكنهم تحديد ما إذا كان الفن من الذكاء الاصطناعى 54 ٪ فقط من الوقت.
تعتمد هذه النماذج على الفن المحمي بحقوق الطبع والنشر تحت شعار “الاستخدام العادل” ، والذي يسمح باستخدام العمل المحمي بحقوق الطبع والنشر دون إذن المالك في ظروف معينة – على سبيل المثال ، إذا تم استخدام العمل لأغراض غير تجارية ، أو إذا كان الاستخدام لا يؤثر على قيمة العمل الأصلي.
لكن الخبراء يقولون إن هذا الادعاء لا يصمد.
يقول كيفن ماديجان ، نائب رئيس الشؤون السياسية والشؤون الحكومية في تحالف حقوق الطبع والنشر ، وهي مجموعة الدفاع عن أصحاب حقوق الطبع والنشر: “تتدرب هذه النماذج على عمل الجميع دون تفويضهم”. “لديهم القدرة على استبدال الحاجة إلى العمل البشري الذي تم إنشاؤه في السوق ، وهو أحد الأسباب التي تجعلنا نناقش أنه لا ينبغي اعتبار استخدام هذه الأشياء.”
تدافع بعض شركات الذكاء الاصطناعى ، مثل Openai ، إلى استخدامها للمواد المحمية بحقوق الطبع والنشر من خلال الإشارة إلى أنه يمكن للفنانين إلغاء الاشتراك في أعمالهم المستخدمة. ومع ذلك ، يقول دعاة حقوق الطبع والنشر إن هذا لا يكفي.
تجادل بعض الشركات ، مثل Openai ، بأنه يمكن للفنانين إلغاء الاشتراك في مجموعات البيانات. مواجهة المدافعين لا معنى له إذا حدث التدريب بالفعل. يقول ماديجان: “حقوق الطبع والنشر هي نظام التقيد”. “يشبه إلى حد ما إعادة معجون الأسنان في الأنبوب.”
الحجج حول كيفية استخدام الذكاء الاصطناعى تستخدم الأعمال المحمية بحقوق الطبع والنشر في المحاكم في جميع أنحاء البلاد وحول العالم ، ولكن لم يتم فعل الكثير لتسوية النقاش للفنانين وكان لديهم عدد قليل من النجاحات القانونية حتى الآن.
ما هي الأدوات التي يستخدمها الفنانون لحماية عملهم؟
نظرًا لأن إزالة الأعمال الفنية من مجموعات التدريب أمر مستحيل تقريبًا ، فإن بعض الفنانين يحاولون منع الذكاء الاصطناعي من الوصول إليه في المقام الأول.
تعمل الأدوات الرقمية ، مثل تلك التي طورتها مشروع Glaze التابع لجامعة شيكاغو ، على “تسمم” الصور من خلال تعديل البكسلات التي تشكل الأعمال الفنية الرقمية بطريقة غير محسوبة للبشر ولكنها بما يكفي لإرباك نماذج الذكاء الاصطناعي.
تقول حنا فويرستر ، طالبة الدكتوراه في علوم الكمبيوتر بجامعة كامبريدج التي درست أمن هذه النماذج: “من المثير للاهتمام أن ننظر إلى ذلك”. “يمكنك تحسين هذه البكسلات داخل الصورة على الرغم من أنها تبدو متشابهة تقريبًا للعين البشرية.”
إحدى أدواتها ، Nightshade ، تعمل عن طريق صنع نماذج منظمة العفو الدولية ترى صورًا مختلفة عن الفنان الذي تم تقديمه في الأصل – حقيبة يد حيث كانت هناك بقرة ، على سبيل المثال. يغير Glaze ، وهو آخر من أدواتهم ، الأسلوب بدلاً من ذلك ، مما يجعل نموذجًا يرى لوحة Jackson Pollock-esque حيث أنشأ الفنان صورة فحم.
تهدف هذه السموم إلى حماية عمل الفنانين بمجرد أن يشقوا طريقهم بالفعل إلى مجموعة بيانات التدريب. آخرون ، مثل robots.txt ، يعملون لمنع العمل من الانتهاء في مجموعة البيانات. يخبر ملف .txt برامج الروبوت الآلية التي تمشيش مواقع الويب للمحتوى حيث لا يُسمح لها بالبحث.
لماذا ليست هذه الأدوات المضادة لـ AI كافية؟
يقول الخبراء إن هناك عدة طرق لمنع نماذج الذكاء الاصطناعى من التدريب على الأعمال الفنية ، إلا أن كل منها يأتي مع مقايضات ونقاط الضعف. على سبيل المثال ، يمكن لـ Robots.txt منع الروبوتات التي تجسد الويب لإنشاء مجموعات التدريب ، ولكنها تمنع أيضًا محركات البحث ، وإلحاق رؤية الفنانين.
يقول ماديجان: “هناك بعض القضايا المختلفة مع ذلك”. “ليس من العملي أن تقول ،” لا تضع عملك على الإنترنت ، لأن هذا هو في الأساس سبل عيش الناس ، للحصول على وجود عبر الإنترنت. “
إن “السموم” على مستوى البكسل التي تشوه الصور للتشويش على أنظمة الذكاء الاصطناعى لها حدود. تُظهر Lightshed ، وهي أداة جديدة صممها باحثو أمن النظام ، مدى سهولة التراجع عن تلك السموم.
لبناء الإضاءة ، درس الباحثون كيفية تغيير برامج الحماية هذه. وجدوا أنماطًا متسقة في طريقة تطبيق السموم ، وتدريب نموذجهم الخاص على التعرف عليها عن طريق إطعامها على حد سواء نسخ نظيفة ومسمومة من نفس الصور.
يقول Foerster ، الذي كان يعمل على الإضاءة أثناء فترة تدريب في جامعة دارمشتات: “يبدو الأمر مختلفًا عن الصورة إلى الصورة ، لكن لا تزال نفس العملية التي يتم تطبيقها”.
بمجرد أن يتمكن نموذجهم من اكتشاف السم بشكل موثوق ، فإنه ببساطة جردته بعيدًا – مما يثبت الصورة الأصلية غير المحمية تحتها.
يؤكد الباحثون ، الذين قدموا أعمالهم في وقت سابق من هذا الشهر في ندوة أمن Usenix ، أن هدفهم ليس تعريض الفنانين للخطر أو مهاجمة أدوات الحماية.
يقول ريجر: “لم يكن المقصود من عملنا بمثابة هجوم حقيقي ، ولا ضد الأدوات ولا ضد الفنانين”. “أردنا فقط أن نظهر الحاجة إلى أدوات اكتشاف أكثر قوة ، وذلك ، في الأساس ، لا ينبغي أن يثق الناس بشكل أعمى بهذه الأدوات.”
Lightshed متاح فقط للبحث ، لكن الفريق يأمل أن يثير ضمانات أقوى ضد تجريف الذكاء الاصطناعي والتلاعب.
يقول ريجر: “في الأساس ، نلعب بشكل لطيف ونبلغ الناس لأن الأشرار الذين لا يلعبون بشكل لطيف كما نفعل لن يعلمهم” ، مشيرًا إلى أن الفريق نبه المبدعين السامين إلى نقاط الضعف التي وجدوها. كما يأملون في أن تصل كلمة النتائج التي توصلوا إليها إلى فنانين قد يعيدون التفكير في كيفية حماية عملهم.
مستقبل الحماية المضادة للاي
يقول الباحثون إن إنشاء دفاع مضمون ضد نماذج الذكاء الاصطناعى قد يكون من المستحيل تقريبًا ، خاصة وأن أنظمة توليد الصور تزداد تقدمًا. لحظر أدوات مثل Lightshed ، يجب أن تكون سموم الصور أكثر عشوائية ، لكن هذا من شأنه أن يخاطر بجعل الصورة غير معروفة للبشر.
يقول Foerster: “لقد فكرنا في كيفية بناء نوع من الاضطراب الذي سيكون أقوى بكثير من تلك الموجودة ، لكنني لا أعتقد أننا يمكن أن نضمن على الإطلاق أنه لن يتم كسرها بطريقة مختلفة”.
يمكن أن تساعد الأساليب الأخرى ، مثل العلامات المائية التشفير ، الفنانين على اكتشاف متى تم استخدام عملهم في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى. “إنها بالتأكيد مشكلة صعبة للغاية” ، يضيف Foerster.
إلى جانب الإصلاحات التقنية ، يجادل بعض الخبراء بأن الحل الحقيقي يكمن في التنظيم. يقول ماديجان إن حماية الفنانين ستتطلب تشريعًا وإجراءات قانونية لإجبار شركات الذكاء الاصطناعى على شفافية ممارساتهم التدريبية.
على وجه الخصوص ، لدى ماديجان الأمل في التشريعات الحزبية التي قدمها السناتور جوش هاولي الشهر الماضي (R-MO) وريتشارد بلومنتال (D-Conn.
وقال هاولي في بيان “شركات الذكاء الاصطناعى تسرق الشعب الأمريكي أعمى بينما تترك الفنانين والكتاب وغيرهم من المبدعين الذين لا يعانون من اللجوء إلى الصفر”. “لقد حان الوقت للكونجرس لمنح العامل الأمريكي يومهم في المحكمة لحماية بياناتهم الشخصية وأعمالهم الإبداعية.”
إذا تم إقراره ، يمكن أن يمنح مشروع القانون الفنانين أدوات قانونية جديدة لمقاضاة شركات التكنولوجيا بسبب انتهاك حقوق الطبع والنشر ، سواء بشكل فردي أو من خلال دعاوى الدعوى الجماعية ، وفرض العقوبات المالية ضد الشركات التي تسيء استخدام المواد المحمية بحقوق الطبع والنشر.
حتى مع مثل هذه التحديات ، يؤكد الخبراء على أن الفنانين لا ينبغي أن يفقدوا الأمل. يتطور المشهد حول الذكاء الاصطناعي بسرعة – وكذلك الجهود المبذولة للدفاع عن مخاطرها.
يقول ماديجان: “البقاء على رأس هذه القضايا ، يساعد على تمكين مجتمع الفنانين بأكمله”.








