## ابزارهای هوش مصنوعی و تولید تصاویر سواستفاده از کودکان: آیا صنعت هوش مصنوعی در حال نابودی کودکان است؟

تصویری از صفحه نمایش درخشان یک لپ تاپ در اتاقی تاریک

شرکت‌های هوش مصنوعی با ارزش گذاری میلیون ها و میلیارد دلاری، مشغول ساخت و توزیع ابزارهایی هستند که می‌توانند به تولید محتوای سواستفاده از کودکان (CSAM) با استفاده از هوش مصنوعی منجر شوند. این موضوع نگرانی‌های جدی درباره آینده کودکان و استفاده اخلاقی از فناوری هوش مصنوعی ایجاد کرده است.

یکی از مدل‌های هوش مصنوعی که در تولید CSAM دخیل شده، “Stable Diffusion نسخه 1.5” است. این مدل توسط شرکت “Runway” با حمایت مالی از “Stability AI” ساخته شده است. پلتفرم‌هایی مانند “Hugging Face” و “Civitai” نیز میزبان این مدل و دیگر مدل‌های مشابه بوده‌اند که ممکن است بر اساس تصاویر واقعی سواستفاده از کودکان آموزش دیده باشند. در برخی موارد، شرکت‌ها ممکن است با میزبانی محتوای CSAM مصنوعی بر روی سرورهای خود، قوانین را نقض کنند.

پرسش اساسی این است که چرا شرکت‌های اصلی و سرمایه گذاران مانند گوگل، انویدیا، اینتل، سیلزفورس و “Andreesen Horowitz” صدها میلیون دلار به این شرکت‌ها تزریق می‌کنند؟ حمایت آن‌ها از این شرکت‌ها، در واقع، به معنای یارانه دادن به تولید محتوای مرتبط با سواستفاده از کودکان است.

کارشناسان امنیت هوش مصنوعی، با طرح این پرسش‌ها، به دنبال ایجاد فشار بر شرکت‌ها برای اتخاذ اقدامات اصلاحی هستند. خوشبختانه، به دنبال این پرسش‌ها، “Stable Diffusion نسخه 1.5” از “Hugging Face” حذف شده است. با این حال، هنوز کارهای زیادی باقی مانده است و ممکن است نیاز به اقدامات قانونی برای پیشرفت واقعی در این زمینه باشد.

## مقیاس مشکل CSAM

مدافعان حقوق کودکان از سال گذشته، نگرانی‌های خود را درباره این مسئله اعلام کرده‌اند. محققان “رصدخانه اینترنتی استنفورد” و “Thorn” در ژوئن ۲۰۲۳ گزارشی منتشر کردند که نشان می‌داد ابزارهای تولید تصویر با هوش مصنوعی، به راحتی توسط افراد مخرب برای تولید محتوای سواستفاده از کودکان مورد استفاده قرار می‌گیرند. در برخی موارد، این افراد نسخه‌های سفارشی از این مدل‌ها را با استفاده از تصاویر واقعی سواستفاده از کودکان برای تولید تصاویر خاص از قربانیان خاص “fine-tuning” می‌کنند.

در اکتبر گذشته، گزارشی از “بنیاد تماشای اینترنتی” (Internet Watch Foundation) در بریتانیا، به سادگی تولید تصاویر واقعی و عکس‌گونه از سواستفاده از کودکان با استفاده از هوش مصنوعی اشاره کرد. این گزارش شامل یک مطالعه “آنّی” از یکی از انجمن‌های CSAM در “Dark Web” بود که در آن بیش از ۱۱۰۰۰ تصویر تولید شده توسط هوش مصنوعی در یک دوره یک ماهه تحلیل شده بود. از این تعداد، ۳۰۰۰ تصویر به قدری وحشتناک بودند که به عنوان جرم طبقه‌بندی می‌شدند. این گزارش خواستار نظارت قوی‌تر بر مدل‌های هوش مصنوعی تولید کننده محتوا شده بود.

مدل‌های هوش مصنوعی می‌توانند این محتوا را تولید کنند زیرا قبلاً نمونه‌هایی از آن را دیده‌اند. محققان در استنفورد در دسامبر گذشته کشف کردند که یکی از مجموعه‌های داده‌های مهم مورد استفاده برای آموزش مدل‌های تولید تصویر، هزاران تصویر از CSAM را شامل می‌شد. بسیاری از محبوب‌ترین مدل‌های تولید تصویر، از جمله “Stable Diffusion نسخه 1.5” با استفاده از این داده‌ها آموزش دیده‌اند. “Runway” این نسخه از “Stable Diffusion” را ساخته بود، “Stability AI” نیز هزینه نیروی محاسباتی لازم برای تولید مجموعه داده‌ها و آموزش مدل را تأمین کرده بود و “Stability AI” نسخه‌های بعدی این مدل را منتشر کرده بود.

“Runway” به درخواست برای اظهار نظر پاسخ نداد. سخنگوی “Stability AI” تاکید کرد که این شرکت “Stable Diffusion نسخه 1.5” را منتشر یا نگهداری نکرده است و می‌گوید که این شرکت “محدودیت‌های محکم” را در مدل‌های بعدی خود برای جلوگیری از CSAM پیاده‌سازی کرده است، از جمله استفاده از مجموعه داده‌های تصفیه‌شده برای آموزش.

در دسامبر گذشته، محققان “Graphika” (شرکت تحلیلگر شبکه‌های اجتماعی) از وجود ده‌ها “سرویس” برای “بیرون آوردن لباس” (undressing) کشف کردند که بسیاری از آن‌ها بر اساس مدل‌های تولید تصویر با هوش مصنوعی “open-source” بودند، احتمالا از جمله “Stable Diffusion” نیز. این سرویس‌ها به کاربران اجازه می‌دهند تا تصاویر پوشیده از افراد را بارگذاری کنند و تصاویر خصوصی و غیرقانونی (NCII) از آن‌ها، چه خردسالان و چه بزرگسالان، را تولید کنند. گاهی این تصاویر با “deepfake pornography” نیز نامیده می‌شوند.

بسیاری از این سرویس‌ها فقط روی “زنان” و “دختران” عمل می‌کنند و این نوع ابزارها برای هدف قرار دادن “سلبریتی‌های زن” مانند “تیلور سوئیفت” و “سیاستمداران” مانند “آلکساندریا اوکاسیو-کورتز” مورد استفاده قرار گرفته‌اند.

## تأثیر CSAM تولید شده توسط هوش مصنوعی

CSAM تولید شده توسط هوش مصنوعی اثر واقعی دارد. “سیستم حفاظت از کودکان” (child safety ecosystem) در حال حاضر با گزارش میلیون‌ها فایل مشکوک به CSAM به خطوط تلفن (hotlines) به طور سالیانه “مغلوب” شده است. هر چیزی که به این حجم از محتوا (به ویژه محتوای سواستفاده “فوتورئالیستی”) اضافه شود، پیدا کردن “کودکان در معرض خطر واقعی” را دشوارتر می‌کند.

“Bad actors” (افراد مخرب) برای “تولید تصاویر مصنوعی” از قربانیان با استفاده از CSAM “موجود” استفاده می‌کنند، که “نقض وحشتناک” از حقوق آن‌ها محسوب می‌شود. “افراد دیگر” با استفاده از “برنامه‌های nudifying” “در دسترس” برای تولید “محتوای جنسی” از تصاویر “معمولی” کودکان واقعی و سپس “استفاده از محتوای تولید شده” برای “extortion” (اخاذی) جنسی استفاده می‌کنند.

## یک پیروزی در برابر CSAM تولید شده توسط هوش مصنوعی

با توجه به تحقیقات استنفورد در دسامبر گذشته، “جامعه هوش مصنوعی” به خوبی می‌داند که “Stable Diffusion 1.5” با استفاده از “محتوای سواستفاده از کودکان” آموزش داده شده است. “هر مدل دیگری” که با استفاده از مجموعه داده “LAION-5B” آموزش داده شده، “محتوای سواستفاده از کودکان” را در خود “جا داده” است.

“این مدل‌ها” به طور فعال توسط “افراد مخرب” برای تولید “CSAM” تولید شده توسط هوش مصنوعی مورد استفاده قرار می‌گیرند. حتی “هنگامی که این مدل‌ها” برای تولید “محتوای بی‌ضررتر” استفاده می‌شوند، “استفاده از آن‌ها” به طور ذاتی “قربانیان” را “مجددا” مورد سواستفاده قرار می‌دهد.

“پس” از “Hugging Face” و “Civitai” (پلتفرم‌های محبوب “میزبانی هوش مصنوعی”) پرسیدیم که چرا “Stable Diffusion 1.5” و “مدل‌های مشتق شده” را در اختیار دارند و “برای دانلود رایگان” قرار داده‌اند؟

لازم به ذکر است که “Jeff Allen” (دانشمند داده در “Integrity Institute”) کشف کرد که “Stable Diffusion 1.5” در ماه گذشته “بیش از ۶ میلیون بار” از “Hugging Face” دانلود شده است و آن را به “محبوب‌ترین تولید کننده تصویر هوش مصنوعی” در این پلتفرم تبدیل کرده است.

“Brigitte Tousignant” (سخنگوی “Hugging Face”) در پاسخ به پرسش ما درباره “میزبانی این مدل” به طور مستقیم “پاسخ نداد” و “به جای آن” گفت که این شرکت “CSAM” را در پلتفرم خود “تحمل نمی‌کند” و “از “ابزارهای امنیتی” متعددی استفاده می‌کند و “تشویق می‌کند” که جامعه از “مدل ایمن “Stable Diffusion” (Safe Stable Diffusion model) استفاده کند که “تصاویر نامناسب” را شناسایی و “سرکوب” می‌کند.

سپس دیروز “Hugging Face” را بررسی کردیم و دریافتیم که “Stable Diffusion 1.5” دیگر “در دسترس نیست” . “Tousignant” به ما گفت که “Hugging Face” آن را “حذف نکرده” و “پیشنهاد کرد” که “با Runway” تماس بگیریم (که این کار را کردیم، “اما” هنوز “پاسخ” نگرفته‌ایم).

“بدون شک” این “موفقیت” است که “این مدل” دیگر “برای دانلود” از “Hugging Face” “در دسترس نیست” . “متاسفانه” هنوز “در Civitai” و “صدها مدل مشتق شده” نیز “در دسترس هستند” . “هنگامی که” با “Civitai” تماس گرفتیم، “سخنگوی” این شرکت به ما گفت که “آن‌ها” “اطلاعی از داده‌های آموزشی” “Stable Diffusion 1.5” ندارند و “فقط” در “صورت وجود” “شواهدی از سوء استفاده” این مدل را “حذف می‌کنند”.

“پلتفرم‌ها” باید “درباره “مسئولیت” خود “نگران” باشند. “هفته گذشته” “Pavel Durov” (مدیرعامل “Telegram” ) در ارتباط “با” “CSAM” و “جرایم” “دیگر” “دستگیر شد”.

## “چه “اقداماتی” در “رابطه “با “CSAM “تولید “شده “توسط “هوش “مصنوعی “انجام “می‌شود؟

“حجم “ثابت” “گزارش‌های “آزار دهنده” و “اخبار” درباره “CSAM “و “NCII “تولید “شده “توسط “هوش “مصنوعی “ادامه “دارد. “در “حالی “که “برخی “از “شرکت‌ها” “در “حال “کوشش “هستند “تا “با “کمک ” “Tech Coalition” “امنیت “محصولات “خود “را “بهبود “بخشند، “چه “پیشرفتی “در “موضوع “عمومی “دیده “ایم؟

“در “آپریل، “Thorn “و “All Tech Is Human” “از “یک “ابتکار “جدید “برای “گرد “هم “آوردن “شرکت‌های “فناوری “اصلی، “توسعه “دهندگان “هوش “مصنوعی “تولید “کننده، “پلتفرم‌های “میزبانی “مدل “و “دیگر “نهادها “برای “تعریف “و “تعهد “به “اصول “Safety by Design” “خبر “دادند “که “جلوگیری “از “سواستفاده “جنسی “از “کودکان “را “در “مرکز “فرایند “توسعه “محصول “قرار “می‌دهد. “ده “شرکت ” (از “جمله “آمازون، “Civitai، “گوگل، “متا، “مایکروسافت، “OpenAI “و “Stability AI”) “به “این “اصول “متعهد “شدند “و “چند “شرکت “دیگر “نیز “برای “همکاری “در “تالیف “یک “مقاله “مرتبط “با “راهکارهای “توصیه “شده “جزئی‌تر “به “آن “پیوستند. “این “اصول “از “شرکت‌ها “می‌خواهد “که “مدل‌های “هوش “مصنوعی “را “به “گونه‌ای “توسعه “دهند، “مستقر “کنند “و “نگهداری “کنند “که “به “طور “پیشگیرانه “خطرات “امنیت “کودکان “را “برطرف “کنند، “سیستم‌هایی “بسازند “تا “هر “گونه “محتوای “سواستفاده “که “تولید “می‌شود “به “طور “قابل “اعتماد “شناسایی “شود “و “توزیع “مدل‌های “و “سرویس‌های “زیربنایی “که “برای “تولید “این “محتوای “سواستفاده “مورد “استفاده “قرار “می‌گیرند “را “محدود “کنند.

“این “نوع “تعهدات “اختیاری “یک “شروع “خوب “است. “Rebecca Portnoff” (رئیس “علم “داده “Thorn”) می‌گوید “این “ابتکار “به “دنبال “مسئولیت “پذیری “است “و “از “شرکت‌ها “می‌خواهد “که “گزارش‌هایی “درباره “پیشرفت “خود “در “مراحل “کاهش “خطر “ارائه “دهند. “همچنین “با “موسسات “ایجاد “کننده “استاندارد “مانند “IEEE “و “NIST “همکاری “می‌کند “تا “تلاش‌های “آن‌ها “را “در “استانداردهای “جدید “و “موجود “ادغام “کند “و “در “را “باز “کند “تا “ممیزی‌های “طرف “سوم “انجام “شود “که ” “از “سیستم “اعتماد “به “خود “عبور “می‌کنند. “Portnoff “همچنین “اشاره “می‌کند “که “Thorn “با “مقامات “سیاسی “برای “کمک “به “آن‌ها “در “طراحی “قوانین “که “هم “از “نظر “فنی “قابل “اجرا “و “هم “از “نظر “تأثیر “گذاری “موثر “باشند “در “حال “گفتگو “است. “در “واقع، “بسیاری “از “کارشناسان “می‌گویند “که “وقت “آن “رسیده “است “که ” فراتر “از “تعهدات “اختیاری “حرکت “کنیم.

“ما “اعتقاد “داریم “که “در “حال “حاضر “در “صنعت “هوش “مصنوعی “یک “رقابت “بی “رحمانه “به “سوی “کف “وجود “دارد. “شرکت‌ها “به “طور “خستگی “ناپذیری “برای “رهبری ” “تکنیکی” “می‌جنگند “و “بسیاری “از “آن‌ها “عواقب ” “اخلاقی” “و “احتمالا ” “قانونی” “محصولات “خود “را “نادیده “می‌گیرند. “در “حالی “که “برخی “از “دولت‌ها ” (از “جمله “اتحادیه “اروپا) “در “زمینه “تنظیم “هوش “مصنوعی “پیشرفت “هایی “داشته‌اند، “آن‌ها “به “اندازه “کافی “پیش “نرفته‌اند. “به “عنوان “مثال، “اگر “قوانین “استفاده “از “سیستم‌های “هوش “مصنوعی “را “که “می‌توانند “CSAM “را “تولید “کنند “غیرقانونی “اعلام “کند، “شرکت‌های “فناوری “ممکن “است “متوجه “این “موضوع “شوند.

“واقعیت “این “است “که “در “حالی “که “برخی “از “شرکت‌ها” “به “تعهدات “اختیاری “عمل “می‌کنند، “بسیاری “از “آن‌ها “چنین “کاری “نمی‌کنند. “و “از “آن‌هایی “که “عمل “می‌کنند، “بسیاری “از “آن‌ها “اقدامات “خود “را “خیلی “آهسته “انجام “می‌دهند، “یا “به “دلیل “آمادگی “نداشتن “یا “به “دلیل “مشکل “در “حفظ “مزیت “رقابتی “خود. “در “این “بین، ” “افراد “مخرب “به “سمت “این “سرویس‌ها “جذب “می‌شوند “و “خرابکاری “می‌کنند. “این “نتیجه “غیرقابل “قبول “است.

## “چه “کارهایی “که “شرکت‌های “فناوری “باید “درباره “CSAM “تولید “شده “توسط “هوش “مصنوعی “انجام “دهند؟

“کارشناسان “از “مدت‌ها “قبل “این “مشکل “را “پیش “بینی “کرده “بودند “و “مدافعان “حقوق “کودکان “استراتژی‌های “معقول “را “برای “مقابله “با “آن “توصیه “کرده “بودند. “اگر “این “فرصت “را “برای “حل “این “وضعیت “از “دست “بدهیم، “همه “ما “مسئول “خواهیم “بود. “حداقل “همه “شرکت‌ها “، “از “جمله “آن‌هایی “که “مدل‌های ” “open-source” “را “منتشر “می‌کنند، “باید “به “طور “قانونی “مجبور “به “عمل “به “تعهدات “موجود “در “اصول “Safety by Design “Thorn “باشند:

* “شناسایی، “حذف “و “گزارش “CSAM “از “مجموعه “داده‌های “آموزشی “خود “قبل “از “آموزش “مدل‌های “هوش “مصنوعی “تولید “کننده “خود.

* “ادغام “علامت‌های “آب “و “سیستم‌های “مبدا “محتوا ” (content provenance systems) “قوی “در “مدل‌های “هوش “مصنوعی “تولید “کننده “خود “به “گونه‌ای “که “تصاویر “تولید “شده “را “بتوان “به “مدل‌هایی “که “آن‌ها “را “ایجاد “کرده‌اند “ربط “داد، “همانطور “که “در “یک “لایحه “کالیفرنیایی “که ” “استانداردهای “مبدا “محتوای “دیجیتال” “را “برای “شرکت‌هایی “که “در “این “ایالت “فعالیت “می‌کنند “ایجاد “می‌کند، “نیاز “است. “این “لایحه “احتمالا “در “ماه “آینده “برای “امضای “فرماندار “Gavin Newsom “آماده “خواهد “بود.

* “حذف “هر “گونه “مدل “هوش “مصنوعی “تولید “کننده “از “پلتفرم‌های “خود “که “معلوم “است “با “CSAM “آموزش “داده “شده “است “یا “قادر “به “تولید “CSAM “است. “از “میزبانی “مجدد “این “مدل‌ها “خودداری “کنید “مگر “اینکه “به “طور “کامل “با “حذف “CSAM “از “آن‌ها “بازسازی “شده “باشند.

* “شناسایی “مدل‌هایی “که “به “طور “عمدی “با “CSAM ” “fine-tuning” “شده‌اند “و “حذف “دائم “آن‌ها “از “پلتفرم‌های “خود.

* “حذف “برنامه‌های “nudifying” “از “فروشگاه‌های “برنامه، “مسدود “کردن “نتایج “جستجوی “این “ابزارها “و “خدمات “و “کار “با “ارائه “دهندگان “پرداخت “برای “مسدود “کردن “پرداخت “به “سازندگان “آن‌ها.

“هیچ “دلیلی “وجود “ندارد “که “هوش “مصنوعی “باید “به “سواستفاده “وحشتناک “از “کودکان “کمک “کند. “اما “برای “تغییر “مسیر “و “توقف “رقابت “به “سوی “کف “به “همه “ابزارها “نیاز “داریم ” ” تعهدات “اختیاری، “تنظیم “و “فشار “عمومی.

“نویسندگان “از “Rebecca Portnoff “از “Thorn، “David Thiel “از “رصدخانه “اینترنتی “استنفورد، “Jeff Allen “از “Integrity Institute، “Ravit Dotan “از “TechBetter “و “محقق “سیاست “فناوری “Owen Doyle “برای “کمک “آن‌ها “در “نوشتن “این “مقاله “تشکر “می‌کنند.

مجله خبری تکنولوژی و موبایل