## ابزارهای هوش مصنوعی و تولید تصاویر سواستفاده از کودکان: آیا صنعت هوش مصنوعی در حال نابودی کودکان است؟
شرکتهای هوش مصنوعی با ارزش گذاری میلیون ها و میلیارد دلاری، مشغول ساخت و توزیع ابزارهایی هستند که میتوانند به تولید محتوای سواستفاده از کودکان (CSAM) با استفاده از هوش مصنوعی منجر شوند. این موضوع نگرانیهای جدی درباره آینده کودکان و استفاده اخلاقی از فناوری هوش مصنوعی ایجاد کرده است.
یکی از مدلهای هوش مصنوعی که در تولید CSAM دخیل شده، “Stable Diffusion نسخه 1.5” است. این مدل توسط شرکت “Runway” با حمایت مالی از “Stability AI” ساخته شده است. پلتفرمهایی مانند “Hugging Face” و “Civitai” نیز میزبان این مدل و دیگر مدلهای مشابه بودهاند که ممکن است بر اساس تصاویر واقعی سواستفاده از کودکان آموزش دیده باشند. در برخی موارد، شرکتها ممکن است با میزبانی محتوای CSAM مصنوعی بر روی سرورهای خود، قوانین را نقض کنند.
پرسش اساسی این است که چرا شرکتهای اصلی و سرمایه گذاران مانند گوگل، انویدیا، اینتل، سیلزفورس و “Andreesen Horowitz” صدها میلیون دلار به این شرکتها تزریق میکنند؟ حمایت آنها از این شرکتها، در واقع، به معنای یارانه دادن به تولید محتوای مرتبط با سواستفاده از کودکان است.
کارشناسان امنیت هوش مصنوعی، با طرح این پرسشها، به دنبال ایجاد فشار بر شرکتها برای اتخاذ اقدامات اصلاحی هستند. خوشبختانه، به دنبال این پرسشها، “Stable Diffusion نسخه 1.5” از “Hugging Face” حذف شده است. با این حال، هنوز کارهای زیادی باقی مانده است و ممکن است نیاز به اقدامات قانونی برای پیشرفت واقعی در این زمینه باشد.
## مقیاس مشکل CSAM
مدافعان حقوق کودکان از سال گذشته، نگرانیهای خود را درباره این مسئله اعلام کردهاند. محققان “رصدخانه اینترنتی استنفورد” و “Thorn” در ژوئن ۲۰۲۳ گزارشی منتشر کردند که نشان میداد ابزارهای تولید تصویر با هوش مصنوعی، به راحتی توسط افراد مخرب برای تولید محتوای سواستفاده از کودکان مورد استفاده قرار میگیرند. در برخی موارد، این افراد نسخههای سفارشی از این مدلها را با استفاده از تصاویر واقعی سواستفاده از کودکان برای تولید تصاویر خاص از قربانیان خاص “fine-tuning” میکنند.
در اکتبر گذشته، گزارشی از “بنیاد تماشای اینترنتی” (Internet Watch Foundation) در بریتانیا، به سادگی تولید تصاویر واقعی و عکسگونه از سواستفاده از کودکان با استفاده از هوش مصنوعی اشاره کرد. این گزارش شامل یک مطالعه “آنّی” از یکی از انجمنهای CSAM در “Dark Web” بود که در آن بیش از ۱۱۰۰۰ تصویر تولید شده توسط هوش مصنوعی در یک دوره یک ماهه تحلیل شده بود. از این تعداد، ۳۰۰۰ تصویر به قدری وحشتناک بودند که به عنوان جرم طبقهبندی میشدند. این گزارش خواستار نظارت قویتر بر مدلهای هوش مصنوعی تولید کننده محتوا شده بود.
مدلهای هوش مصنوعی میتوانند این محتوا را تولید کنند زیرا قبلاً نمونههایی از آن را دیدهاند. محققان در استنفورد در دسامبر گذشته کشف کردند که یکی از مجموعههای دادههای مهم مورد استفاده برای آموزش مدلهای تولید تصویر، هزاران تصویر از CSAM را شامل میشد. بسیاری از محبوبترین مدلهای تولید تصویر، از جمله “Stable Diffusion نسخه 1.5” با استفاده از این دادهها آموزش دیدهاند. “Runway” این نسخه از “Stable Diffusion” را ساخته بود، “Stability AI” نیز هزینه نیروی محاسباتی لازم برای تولید مجموعه دادهها و آموزش مدل را تأمین کرده بود و “Stability AI” نسخههای بعدی این مدل را منتشر کرده بود.
“Runway” به درخواست برای اظهار نظر پاسخ نداد. سخنگوی “Stability AI” تاکید کرد که این شرکت “Stable Diffusion نسخه 1.5” را منتشر یا نگهداری نکرده است و میگوید که این شرکت “محدودیتهای محکم” را در مدلهای بعدی خود برای جلوگیری از CSAM پیادهسازی کرده است، از جمله استفاده از مجموعه دادههای تصفیهشده برای آموزش.
در دسامبر گذشته، محققان “Graphika” (شرکت تحلیلگر شبکههای اجتماعی) از وجود دهها “سرویس” برای “بیرون آوردن لباس” (undressing) کشف کردند که بسیاری از آنها بر اساس مدلهای تولید تصویر با هوش مصنوعی “open-source” بودند، احتمالا از جمله “Stable Diffusion” نیز. این سرویسها به کاربران اجازه میدهند تا تصاویر پوشیده از افراد را بارگذاری کنند و تصاویر خصوصی و غیرقانونی (NCII) از آنها، چه خردسالان و چه بزرگسالان، را تولید کنند. گاهی این تصاویر با “deepfake pornography” نیز نامیده میشوند.
بسیاری از این سرویسها فقط روی “زنان” و “دختران” عمل میکنند و این نوع ابزارها برای هدف قرار دادن “سلبریتیهای زن” مانند “تیلور سوئیفت” و “سیاستمداران” مانند “آلکساندریا اوکاسیو-کورتز” مورد استفاده قرار گرفتهاند.
## تأثیر CSAM تولید شده توسط هوش مصنوعی
CSAM تولید شده توسط هوش مصنوعی اثر واقعی دارد. “سیستم حفاظت از کودکان” (child safety ecosystem) در حال حاضر با گزارش میلیونها فایل مشکوک به CSAM به خطوط تلفن (hotlines) به طور سالیانه “مغلوب” شده است. هر چیزی که به این حجم از محتوا (به ویژه محتوای سواستفاده “فوتورئالیستی”) اضافه شود، پیدا کردن “کودکان در معرض خطر واقعی” را دشوارتر میکند.
“Bad actors” (افراد مخرب) برای “تولید تصاویر مصنوعی” از قربانیان با استفاده از CSAM “موجود” استفاده میکنند، که “نقض وحشتناک” از حقوق آنها محسوب میشود. “افراد دیگر” با استفاده از “برنامههای nudifying” “در دسترس” برای تولید “محتوای جنسی” از تصاویر “معمولی” کودکان واقعی و سپس “استفاده از محتوای تولید شده” برای “extortion” (اخاذی) جنسی استفاده میکنند.
## یک پیروزی در برابر CSAM تولید شده توسط هوش مصنوعی
با توجه به تحقیقات استنفورد در دسامبر گذشته، “جامعه هوش مصنوعی” به خوبی میداند که “Stable Diffusion 1.5” با استفاده از “محتوای سواستفاده از کودکان” آموزش داده شده است. “هر مدل دیگری” که با استفاده از مجموعه داده “LAION-5B” آموزش داده شده، “محتوای سواستفاده از کودکان” را در خود “جا داده” است.
“این مدلها” به طور فعال توسط “افراد مخرب” برای تولید “CSAM” تولید شده توسط هوش مصنوعی مورد استفاده قرار میگیرند. حتی “هنگامی که این مدلها” برای تولید “محتوای بیضررتر” استفاده میشوند، “استفاده از آنها” به طور ذاتی “قربانیان” را “مجددا” مورد سواستفاده قرار میدهد.
“پس” از “Hugging Face” و “Civitai” (پلتفرمهای محبوب “میزبانی هوش مصنوعی”) پرسیدیم که چرا “Stable Diffusion 1.5” و “مدلهای مشتق شده” را در اختیار دارند و “برای دانلود رایگان” قرار دادهاند؟
لازم به ذکر است که “Jeff Allen” (دانشمند داده در “Integrity Institute”) کشف کرد که “Stable Diffusion 1.5” در ماه گذشته “بیش از ۶ میلیون بار” از “Hugging Face” دانلود شده است و آن را به “محبوبترین تولید کننده تصویر هوش مصنوعی” در این پلتفرم تبدیل کرده است.
“Brigitte Tousignant” (سخنگوی “Hugging Face”) در پاسخ به پرسش ما درباره “میزبانی این مدل” به طور مستقیم “پاسخ نداد” و “به جای آن” گفت که این شرکت “CSAM” را در پلتفرم خود “تحمل نمیکند” و “از “ابزارهای امنیتی” متعددی استفاده میکند و “تشویق میکند” که جامعه از “مدل ایمن “Stable Diffusion” (Safe Stable Diffusion model) استفاده کند که “تصاویر نامناسب” را شناسایی و “سرکوب” میکند.
سپس دیروز “Hugging Face” را بررسی کردیم و دریافتیم که “Stable Diffusion 1.5” دیگر “در دسترس نیست” . “Tousignant” به ما گفت که “Hugging Face” آن را “حذف نکرده” و “پیشنهاد کرد” که “با Runway” تماس بگیریم (که این کار را کردیم، “اما” هنوز “پاسخ” نگرفتهایم).
“بدون شک” این “موفقیت” است که “این مدل” دیگر “برای دانلود” از “Hugging Face” “در دسترس نیست” . “متاسفانه” هنوز “در Civitai” و “صدها مدل مشتق شده” نیز “در دسترس هستند” . “هنگامی که” با “Civitai” تماس گرفتیم، “سخنگوی” این شرکت به ما گفت که “آنها” “اطلاعی از دادههای آموزشی” “Stable Diffusion 1.5” ندارند و “فقط” در “صورت وجود” “شواهدی از سوء استفاده” این مدل را “حذف میکنند”.
“پلتفرمها” باید “درباره “مسئولیت” خود “نگران” باشند. “هفته گذشته” “Pavel Durov” (مدیرعامل “Telegram” ) در ارتباط “با” “CSAM” و “جرایم” “دیگر” “دستگیر شد”.
## “چه “اقداماتی” در “رابطه “با “CSAM “تولید “شده “توسط “هوش “مصنوعی “انجام “میشود؟
“حجم “ثابت” “گزارشهای “آزار دهنده” و “اخبار” درباره “CSAM “و “NCII “تولید “شده “توسط “هوش “مصنوعی “ادامه “دارد. “در “حالی “که “برخی “از “شرکتها” “در “حال “کوشش “هستند “تا “با “کمک ” “Tech Coalition” “امنیت “محصولات “خود “را “بهبود “بخشند، “چه “پیشرفتی “در “موضوع “عمومی “دیده “ایم؟
“در “آپریل، “Thorn “و “All Tech Is Human” “از “یک “ابتکار “جدید “برای “گرد “هم “آوردن “شرکتهای “فناوری “اصلی، “توسعه “دهندگان “هوش “مصنوعی “تولید “کننده، “پلتفرمهای “میزبانی “مدل “و “دیگر “نهادها “برای “تعریف “و “تعهد “به “اصول “Safety by Design” “خبر “دادند “که “جلوگیری “از “سواستفاده “جنسی “از “کودکان “را “در “مرکز “فرایند “توسعه “محصول “قرار “میدهد. “ده “شرکت ” (از “جمله “آمازون، “Civitai، “گوگل، “متا، “مایکروسافت، “OpenAI “و “Stability AI”) “به “این “اصول “متعهد “شدند “و “چند “شرکت “دیگر “نیز “برای “همکاری “در “تالیف “یک “مقاله “مرتبط “با “راهکارهای “توصیه “شده “جزئیتر “به “آن “پیوستند. “این “اصول “از “شرکتها “میخواهد “که “مدلهای “هوش “مصنوعی “را “به “گونهای “توسعه “دهند، “مستقر “کنند “و “نگهداری “کنند “که “به “طور “پیشگیرانه “خطرات “امنیت “کودکان “را “برطرف “کنند، “سیستمهایی “بسازند “تا “هر “گونه “محتوای “سواستفاده “که “تولید “میشود “به “طور “قابل “اعتماد “شناسایی “شود “و “توزیع “مدلهای “و “سرویسهای “زیربنایی “که “برای “تولید “این “محتوای “سواستفاده “مورد “استفاده “قرار “میگیرند “را “محدود “کنند.
“این “نوع “تعهدات “اختیاری “یک “شروع “خوب “است. “Rebecca Portnoff” (رئیس “علم “داده “Thorn”) میگوید “این “ابتکار “به “دنبال “مسئولیت “پذیری “است “و “از “شرکتها “میخواهد “که “گزارشهایی “درباره “پیشرفت “خود “در “مراحل “کاهش “خطر “ارائه “دهند. “همچنین “با “موسسات “ایجاد “کننده “استاندارد “مانند “IEEE “و “NIST “همکاری “میکند “تا “تلاشهای “آنها “را “در “استانداردهای “جدید “و “موجود “ادغام “کند “و “در “را “باز “کند “تا “ممیزیهای “طرف “سوم “انجام “شود “که ” “از “سیستم “اعتماد “به “خود “عبور “میکنند. “Portnoff “همچنین “اشاره “میکند “که “Thorn “با “مقامات “سیاسی “برای “کمک “به “آنها “در “طراحی “قوانین “که “هم “از “نظر “فنی “قابل “اجرا “و “هم “از “نظر “تأثیر “گذاری “موثر “باشند “در “حال “گفتگو “است. “در “واقع، “بسیاری “از “کارشناسان “میگویند “که “وقت “آن “رسیده “است “که ” فراتر “از “تعهدات “اختیاری “حرکت “کنیم.
“ما “اعتقاد “داریم “که “در “حال “حاضر “در “صنعت “هوش “مصنوعی “یک “رقابت “بی “رحمانه “به “سوی “کف “وجود “دارد. “شرکتها “به “طور “خستگی “ناپذیری “برای “رهبری ” “تکنیکی” “میجنگند “و “بسیاری “از “آنها “عواقب ” “اخلاقی” “و “احتمالا ” “قانونی” “محصولات “خود “را “نادیده “میگیرند. “در “حالی “که “برخی “از “دولتها ” (از “جمله “اتحادیه “اروپا) “در “زمینه “تنظیم “هوش “مصنوعی “پیشرفت “هایی “داشتهاند، “آنها “به “اندازه “کافی “پیش “نرفتهاند. “به “عنوان “مثال، “اگر “قوانین “استفاده “از “سیستمهای “هوش “مصنوعی “را “که “میتوانند “CSAM “را “تولید “کنند “غیرقانونی “اعلام “کند، “شرکتهای “فناوری “ممکن “است “متوجه “این “موضوع “شوند.
“واقعیت “این “است “که “در “حالی “که “برخی “از “شرکتها” “به “تعهدات “اختیاری “عمل “میکنند، “بسیاری “از “آنها “چنین “کاری “نمیکنند. “و “از “آنهایی “که “عمل “میکنند، “بسیاری “از “آنها “اقدامات “خود “را “خیلی “آهسته “انجام “میدهند، “یا “به “دلیل “آمادگی “نداشتن “یا “به “دلیل “مشکل “در “حفظ “مزیت “رقابتی “خود. “در “این “بین، ” “افراد “مخرب “به “سمت “این “سرویسها “جذب “میشوند “و “خرابکاری “میکنند. “این “نتیجه “غیرقابل “قبول “است.
## “چه “کارهایی “که “شرکتهای “فناوری “باید “درباره “CSAM “تولید “شده “توسط “هوش “مصنوعی “انجام “دهند؟
“کارشناسان “از “مدتها “قبل “این “مشکل “را “پیش “بینی “کرده “بودند “و “مدافعان “حقوق “کودکان “استراتژیهای “معقول “را “برای “مقابله “با “آن “توصیه “کرده “بودند. “اگر “این “فرصت “را “برای “حل “این “وضعیت “از “دست “بدهیم، “همه “ما “مسئول “خواهیم “بود. “حداقل “همه “شرکتها “، “از “جمله “آنهایی “که “مدلهای ” “open-source” “را “منتشر “میکنند، “باید “به “طور “قانونی “مجبور “به “عمل “به “تعهدات “موجود “در “اصول “Safety by Design “Thorn “باشند:
* “شناسایی، “حذف “و “گزارش “CSAM “از “مجموعه “دادههای “آموزشی “خود “قبل “از “آموزش “مدلهای “هوش “مصنوعی “تولید “کننده “خود.
* “ادغام “علامتهای “آب “و “سیستمهای “مبدا “محتوا ” (content provenance systems) “قوی “در “مدلهای “هوش “مصنوعی “تولید “کننده “خود “به “گونهای “که “تصاویر “تولید “شده “را “بتوان “به “مدلهایی “که “آنها “را “ایجاد “کردهاند “ربط “داد، “همانطور “که “در “یک “لایحه “کالیفرنیایی “که ” “استانداردهای “مبدا “محتوای “دیجیتال” “را “برای “شرکتهایی “که “در “این “ایالت “فعالیت “میکنند “ایجاد “میکند، “نیاز “است. “این “لایحه “احتمالا “در “ماه “آینده “برای “امضای “فرماندار “Gavin Newsom “آماده “خواهد “بود.
* “حذف “هر “گونه “مدل “هوش “مصنوعی “تولید “کننده “از “پلتفرمهای “خود “که “معلوم “است “با “CSAM “آموزش “داده “شده “است “یا “قادر “به “تولید “CSAM “است. “از “میزبانی “مجدد “این “مدلها “خودداری “کنید “مگر “اینکه “به “طور “کامل “با “حذف “CSAM “از “آنها “بازسازی “شده “باشند.
* “شناسایی “مدلهایی “که “به “طور “عمدی “با “CSAM ” “fine-tuning” “شدهاند “و “حذف “دائم “آنها “از “پلتفرمهای “خود.
* “حذف “برنامههای “nudifying” “از “فروشگاههای “برنامه، “مسدود “کردن “نتایج “جستجوی “این “ابزارها “و “خدمات “و “کار “با “ارائه “دهندگان “پرداخت “برای “مسدود “کردن “پرداخت “به “سازندگان “آنها.
“هیچ “دلیلی “وجود “ندارد “که “هوش “مصنوعی “باید “به “سواستفاده “وحشتناک “از “کودکان “کمک “کند. “اما “برای “تغییر “مسیر “و “توقف “رقابت “به “سوی “کف “به “همه “ابزارها “نیاز “داریم ” ” تعهدات “اختیاری، “تنظیم “و “فشار “عمومی.
“نویسندگان “از “Rebecca Portnoff “از “Thorn، “David Thiel “از “رصدخانه “اینترنتی “استنفورد، “Jeff Allen “از “Integrity Institute، “Ravit Dotan “از “TechBetter “و “محقق “سیاست “فناوری “Owen Doyle “برای “کمک “آنها “در “نوشتن “این “مقاله “تشکر “میکنند.