هشدار کارشناسان: هوش مصنوعی در برابر دستکاری کانال آلفای تصاویر آسیبپذیر است
تحقیقات جدید نشان میدهد سیستمهای تشخیص تصویر هوش مصنوعی، به دلیل نادیده گرفتن کانال آلفا (کانال شفافیت) در تصاویر، در برابر حملات سایبری آسیبپذیر هستند. این امر میتواند عواقب خطرناکی برای تشخیص پزشکی و رانندگی خودران به همراه داشته باشد.
تیمی از محققان دانشگاه تگزاس در سن آنتونیو (UTSA) روشی به نام “AlphaDog” را توسعه دادهاند که از این ضعف برای ایجاد اختلال در سیستمهای هوش مصنوعی بهره میبرد. کانال آلفا، جزئی از دادههای تصویری RGBA (قرمز، سبز، آبی، آلفا) است و شفافیت تصویر را کنترل میکند. تفاوت درک انسان و هوش مصنوعی از تصاویر به دلیل همین کانال آلفا میتواند منجر به خطاهای جدی شود.
این روش میتواند تصاویر را به گونهای دستکاری کند که برای انسان طبیعی به نظر برسد، اما هوش مصنوعی آنها را به اشتباه تفسیر کند. محققان با آزمایش 6500 تصویر بر روی 100 مدل هوش مصنوعی (از جمله 80 سیستم متن باز و 20 پلتفرم مبتنی بر ابر مانند ChatGPT)، اثربخشی بالای AlphaDog را به ویژه در مناطق خاکستری تصاویر نشان دادند.
یکی از نگران کنندهترین یافتهها، آسیبپذیری سیستمهای هوش مصنوعی مورد استفاده در خودروهای خودران است. علائم راهنمایی و رانندگی که اغلب شامل عناصر خاکستری هستند، به راحتی با استفاده از تکنیک AlphaDog قابل دستکاری هستند و این میتواند به خطرات جدی منجر شود.
همچنین، این تحقیق نشان میدهد که تصویربرداری پزشکی، که به طور فزایندهای به هوش مصنوعی برای تشخیص بیماریها متکی است، نیز در معرض خطر است. تصاویر اشعه ایکس، MRI و CT اسکن که اغلب شامل تصاویر خاکستری هستند، میتوانند با استفاده از AlphaDog دستکاری شوند و به تشخیصهای نادرست منجر شوند.
سیستمهای تشخیص چهره نیز در برابر این نوع حمله آسیب پذیرند. این امر میتواند به دور زدن سیستمهای امنیتی یا شناسایی اشتباه افراد منجر شود و خطرات امنیتی و حریم خصوصی را افزایش دهد.
محققان در حال همکاری با شرکتهای بزرگ فناوری مانند گوگل، آمازون و مایکروسافت برای رفع این آسیبپذیری هستند. به گفته پروفسور گوناور چن، سرپرست این تحقیق، نادیده گرفتن کانال آلفا در کدهای برنامه نویسی هوش مصنوعی، به آلودگی دادهها و در نهایت خطاهای جدی منجر میشود.