أحد الدفاعات الرئيسية التي يستخدمها أولئك المتفائلون بشأن مولدات الفن بالذكاء الاصطناعي هو أنه على الرغم من أن النماذج مدربة على الصور الموجودة ، فإن كل شيء يصنعونه جديد. المبشرون بالذكاء الاصطناعي في كثير من الأحيان قارن هذه الأنظمة بالفنانين الحقيقيين. التصميمات مستوحاة من كل من سبقهم ، فلماذا لا يستطيع الذكاء الاصطناعي استحضار الأعمال السابقة بنفس الطريقة؟
البحث الجديد يمكن أن يثبط هذه الحجة ويمكن أن يصبح نقطة شائكة رئيسية عدة دعاوى قضائية جارية تتعلق بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وحقوق النشر. وجد باحثون من الصناعة والأوساط الأكاديمية أن أكثر منشئي صور الذكاء الاصطناعي شهرة وقادمة يمكنهم “تذكر” الصور من البيانات التي تم تدريبهم عليها. بدلاً من إنشاء شيء جديد تمامًا ، ستجبر بعض المطالبات الذكاء الاصطناعي على إعادة إنتاج صورة ببساطة. قد تكون حقوق الطبع والنشر لبعض هذه الصور المعاد إنشاؤها. ولكن الأسوأ من ذلك ، أن نماذج الذكاء الاصطناعي التوليدية الحديثة لديها القدرة على حفظ وإعادة إنتاج المعلومات الحساسة المسترجعة لاستخدامها في مجموعة تدريب على الذكاء الاصطناعي.
الدراسة أجراها باحثون في صناعة التكنولوجيا ، على وجه الخصوص جوجل و DeepMind وفي جامعات مثل بيركلي وبرينستون. نفس الفريق عمل على أ الدراسة السابقة الذين حددوا مشكلة مماثلة في نماذج لغة الذكاء الاصطناعي ، ولا سيما GPT2 ، مقدمة لـ OpenAI دردشة GPT شائعة للغاية. عند جمع المجموعة معًا ، اكتشف الباحثون بقيادة الباحث في Google Brain نيكولاس كارليني أن Imagen من Google والمصدر المفتوح الشهير Stable Diffusion كانا قادرين على إعادة إنتاج الصور ، وبعضها كان له آثار واضحة على حقوق النشر أو تراخيص الصور.
تم إنشاء الصورة الأولى في هذه التغريدة باستخدام التسمية التوضيحية المدرجة في مجموعة البيانات الخاصة بـ Stable Diffusion ، وهي قاعدة بيانات الصور المقطوعة متعددة تيرابايت والمعروفة باسم LAION. قام الفريق بتغذية التسمية التوضيحية في موجه Stable Diffusion ، وخرجوا بنفس الصورة بالضبط ، وإن كانت مشوهة قليلاً بسبب الضوضاء الرقمية. كانت عملية العثور على هذه الصور المكررة بسيطة نسبيًا. قام الفريق بتشغيل نفس المطالبة عدة مرات ، وبعد الحصول على نفس الصورة الناتجة ، تحقق الباحثون يدويًا مما إذا كانت الصورة موجودة في مجموعة التدريب.
قد تتلقى G / O Media عمولة
قال اثنان من الباحثين في الورقة ، إريك والاس ، طالب دكتوراه في جامعة كاليفورنيا في بيركلي ، وفيكاش سيهواج ، مرشح دكتوراه في جامعة برينستون ، لـ Gizmodo في مقابلة مع Zoom أن تكرار الصورة أمر نادر الحدوث. جرب فريقهم حوالي 300000 ترجمة مختلفة ووجدوا معدل استدعاء 0.03٪ فقط. Les images copiées étaient encore plus rares pour des modèles comme Stable Diffusion qui ont travaillé à dédupliquer les images dans son ensemble de formation, bien qu’en fin de compte, tous les modèles de diffusion auront le même problème, à un degré plus ou moins كبير. وجد الباحثون أن Imagen كان قادرًا تمامًا على حفظ الصور التي كانت موجودة مرة واحدة فقط في مجموعة البيانات.
قال سهواج: “التحذير هنا هو أن النموذج يهدف إلى التعميم ، ومن المفترض أن يولد صورًا جديدة بدلاً من أن يبصق نسخة محفوظة في الذاكرة”.
أظهر بحثهم أنه نظرًا لأن أنظمة الذكاء الاصطناعي نفسها أصبحت أكبر وأكثر تعقيدًا ، فمن المرجح أن ينتج الذكاء الاصطناعي مواد منسوخة. لا يحتوي نموذج أصغر مثل Stable Diffusion على نفس مساحة التخزين لتخزين معظم بيانات التمرين. ان يمكن أن يتغير كثيرًا في السنوات القليلة المقبلة.
قال والاس: “ربما في العام المقبل ، مهما كان النموذج الجديد أكبر بكثير وأكثر قوة ، فمن المحتمل أن تكون هذه الأنواع من مخاطر الحفظ أعلى بكثير مما هي عليه الآن”.
من خلال عملية معقدة لتدمير بيانات التدريب بالضوضاء قبل إزالة نفس التشويه ، تُنشئ نماذج التعلم الآلي القائمة على الانتشار بيانات ، في هذه الحالة ، صور ، مشابهة لتلك التي تم تشكيلها عليها. كانت نماذج الانتشار تطورًا لشبكات الخصومة التوليدية أو التعلم الآلي القائم على GAN.
وجد الباحثون أن النماذج المستندة إلى GAN ليس لديها نفس المشكلة مع الاحتفاظ بالصورة ، ولكن من غير المرجح أن تتجاوز الشركات الكبيرة الانتشار ما لم ينتج نموذج تعلم آلي أكثر تطورًا صورًا أكثر واقعية وعالية الجودة.
لاحظ فلوريان ترامير ، أستاذ علوم الكمبيوتر في ETH Zurich الذي شارك في البحث ، عدد شركات الذكاء الاصطناعي التي تنصح المستخدمين ، سواء تلك الخاصة بالإصدارات المجانية أو المدفوعة ، بالحصول على ترخيص لمشاركة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو حتى تحقيق الدخل منه. تحتفظ شركات الذكاء الاصطناعي نفسها أيضًا ببعض الحقوق في هذه الصور. قد تكون هذه مشكلة إذا قام الذكاء الاصطناعي بإنشاء صورة مطابقة تمامًا لحقوق الطبع والنشر الحالية.
مع معدل حفظ يبلغ 0.03٪ فقط ، يمكن لمطوري الذكاء الاصطناعي النظر في هذه الدراسة وتحديد عدم وجود مخاطر كبيرة. يمكن أن تعمل الشركات على إزالة نسخ الصور في بيانات التدريب ، مما يقلل احتمالية حفظها. بحق الجحيم ، يمكنهم حتى تطوير أنظمة ذكاء اصطناعي يمكنها اكتشاف ما إذا كانت الصورة نسخة طبق الأصل مباشرة لصورة في بيانات التدريب ووضع علامة عليها لحذفها. ومع ذلك ، فإن هذا يخفي إجمالي مخاطر الخصوصية التي يشكلها الذكاء الاصطناعي التوليدي. شارك كارليني وترامير أيضًا في مقال آخر حديث الذي جادل بأنه حتى محاولات تصفية البيانات لا تزال لا تمنع بيانات التدريب من التسرب عبر النموذج.
وبالطبع ، هناك مخاطرة كبيرة في أن تنتهي الصور التي لا يرغب أحد في نسخها بالظهور على شاشات المستخدمين. سأل والاس عما إذا كان الباحث يريد إنشاء سلسلة كاملة من البيانات الطبية التركيبية حول الأشعة السينية للأشخاص ، على سبيل المثال. ماذا يجب أن يحدث إذا حفظ الذكاء الاصطناعي المعتمد على البث ويكرر السجلات الطبية الفعلية للشخص؟
قال الطالب بجامعة كاليفورنيا في بيركلي: “إنه أمر نادر جدًا ، لذا قد لا تلاحظ حدوثه في البداية ، وبعد ذلك يمكنك نشر مجموعة البيانات هذه على الويب”. “بيت القصيد من هذا العمل هو نوع من توقع أنواع الأخطاء المحتملة التي قد يرتكبها الناس.”