مدلهای هوش مصنوعی در سالهای اخیر با سرعت خیرهکنندهای توسعه یافتهاند و به تدریج به ابزاری کلیدی در بخشهای مختلف زندگی، از مراقبتهای بهداشتی و امور مالی گرفته تا سرگرمی و ارتباطات، تبدیل شدهاند. این گسترش نفوذ، اعتمادی عمومی را نسبت به قابلیتها و دقت هوش مصنوعی به وجود آورده است. با این حال، گزارشهای اخیر نشان میدهد که نباید به طور کامل به این فناوری نوظهور اعتماد کرد؛ چرا که برخی از پرکاربردترین مدلهای هوش مصنوعی، آمار نگرانکنندهای از پاسخهای غلط یا «توهم» (Hallucination) را از خود نشان میدهند. این یافتهها، ضرورت شفافیت و ارزیابی دقیقتر هوش مصنوعی را بیش از پیش آشکار میکند.

افزایش نگرانیها پیرامون دقت و قابل اعتماد بودن پاسخهای هوش مصنوعی
درحالیکه هوش مصنوعی مزایای بیشماری را وعده میدهد، خطرات پنهان و جدی نیز با خود به همراه دارد، بهویژه از سوی ابزارهایی که پتانسیل سوءاستفاده یا ایجاد عواقب ناخواسته را دارند. اغلب تصور میشود که مدلهای مطرحتر و محبوبتر هوش مصنوعی، قابل اعتمادتر هستند، اما بررسیها خلاف این را ثابت کردهاند. بسیاری از این فناوریها، که در کانون بحثهای جهانی قرار دارند، همچنان از مشکل «توهم» رنج میبرند و افراد، سازمانها و سیاستگذاران برای مقابله با چالشهای ناشی از آن آمادگی کافی ندارند. این مشکل میتواند اعتماد کاربران را کاهش داده و در تصمیمگیریهای حساس، تبعات جبرانناپذیری به همراه داشته باشد.
یک ابزار هوش مصنوعی زمانی خطرناک تلقی میشود که ویژگیهای زیر را داشته باشد:
احتمال سوءاستفاده: قابلیت به کارگیری در کلاهبرداری، نظارت غیرمجاز یا دستکاری اطلاعات.
عدم شفافیت: عملکرد آن به دلیل پیچیدگی و ماهیت «جعبه سیاه» آن، به سختی قابل ممیزی یا کنترل باشد.
تشدید تعصبات: تقویت کلیشههای مضر یا تبعیضهای موجود در دادههای آموزشی.
تجاوز به حریم خصوصی: فراهم آوردن امکان دسترسی غیرمجاز یا سوءاستفاده از دادههای شخصی کاربران.
خودمختاری در اقدامات مضر: توانایی عمل کردن بدون نظارت انسانی و ایجاد آسیبهای جدی.
آشکارسازی مدلهای هوش مصنوعی با بالاترین نرخ خطای توهم
بر اساس گزارشی که اخیراً توسط نیویورکتایمز منتشر و بر پایه تحقیقات دانشگاه کلمبیا استوار شده است، فهرستی از مدلهای هوش مصنوعی با بالاترین «نرخ هالوسینیشن» (Hallucination Rate) یا همان خطای توهم ارائه شده است. توهم در هوش مصنوعی به حالتی گفته میشود که مدل، اطلاعات نادرست، غیرموجود یا نامرتبطی را تولید میکند که با واقعیت سازگار نیست. این اطلاعات غلط میتوانند با لحنی کاملاً اطمینانبخش ارائه شوند و کاربر را به اشتباه بیندازند. دیدن نام برخی از این مدلها و میزان خطایشان ممکن است برای بسیاری از کاربران تعجبآور باشد، به خصوص با توجه به شهرت و استقبال گسترده از آنها.
در ادامه، برخی از این مدلها و نرخ توهم آنها ارائه شده است:
گراک-۳: ۹۴ درصد
گراک-۲: ۷۷ درصد
جمینای: ۷۶ درصد
دیپسیک: ۶۸ درصد
چت جیپیتی: ۶۷ درصد
پرپلکسیتی پرو: ۴۵ درصد
کوپایلوت: ۴۰ درصد
پرپلکسیتی: ۳۷ درصد
این آمار نشان میدهد که حتی پیشرفتهترین مدلهای هوش مصنوعی نیز در حال حاضر با چالشهای اساسی در زمینه دقت و صحت اطلاعات تولیدی مواجه هستند.
درک پدیده توهم در هوش مصنوعی: ریشهها و پیامدها
ریشه اصلی پدیده توهم در هوش مصنوعی را میتوان در نحوه آموزش این مدلها جستجو کرد. مدلهای زبان بزرگ (LLMs) بر اساس حجم عظیمی از دادههای متنی آموزش میبینند تا الگوها و روابط بین کلمات را بیاموزند. هدف آنها تولید متنی است که از نظر آماری با دادههای آموزشی همخوانی داشته باشد، نه لزوماً درک واقعی یا ارائه اطلاعات صحیح. گاهی اوقات، زمانی که مدل با درخواستی مواجه میشود که در دادههای آموزشی آن نمونه مشابهی ندارد یا نیاز به استدلال پیچیدهتر از تواناییهای آن است، به جای اعتراف به ندانستن، اطلاعاتی ساختگی و نامربوط تولید میکند. این پدیده در زمینههایی مانند پزشکی، حقوق و امور مالی میتواند پیامدهای فاجعهباری داشته باشد، جایی که تصمیمات مبتنی بر اطلاعات نادرست میتوانند منجر به آسیبهای جانی یا مالی جبرانناپذیر شوند.
مسیر پیش رو: به سوی هوش مصنوعی قابل اعتمادتر و شفافتر
مواجهه با نرخ بالای خطای توهم در مدلهای هوش مصنوعی نیازمند رویکردی چندجانبه است. از یک سو، شرکتهای توسعهدهنده هوش مصنوعی باید بر بهبود الگوریتمها، افزایش کیفیت دادههای آموزشی و پیادهسازی مکانیزمهای بازبینی دقیقتر تمرکز کنند. توسعه سیستمهای هوش مصنوعی که بتوانند منبع اطلاعات خود را ذکر کرده و قابلیت "توضیحپذیری" (Explainability) بالاتری داشته باشند، از اهمیت حیاتی برخوردار است. از سوی دیگر، کاربران نیز باید با آگاهی و رویکردی انتقادی با خروجیهای هوش مصنوعی تعامل داشته باشند و به هیچ عنوان به طور کامل به اطلاعات ارائه شده توسط این مدلها اعتماد نکنند، بلکه صحت آنها را از طریق منابع معتبر دیگر تأیید نمایند. سیاستگذاران و نهادهای قانونگذار نیز وظیفه دارند تا با وضع قوانین و استانداردهای مشخص برای توسعه و استفاده مسئولانه از هوش مصنوعی، از گسترش سوءاستفادهها و پیامدهای منفی ناشی از خطای این فناوری جلوگیری کنند. شفافیت و آموزش عمومی، دو رکن اساسی برای شکلگیری آیندهای امنتر و قابل اعتمادتر با هوش مصنوعی هستند.
مطالب مرتبط
- ایران در آستانه میزبانی نخستین نمایشگاه بینالمللی هوش مصنوعی؛ افقهای جدید برای فناوری و نوآوری گشوده میشود
- چرا هوش مصنوعی ChatGPT از اعلام دقیق ساعت کنونی ناتوان است؟ تحلیل ابعاد فنی یک چالش غیرمنتظره
- جنجال جدید هوش مصنوعی گروک: تمجید اغراقآمیز از ایلان ماسک و واکنش تند مدیرعامل xAI
- چرا هوش مصنوعی ChatGPT از اعلام دقیق ساعت کنونی ناتوان است؟ تحلیل ابعاد فنی یک چالش غیرمنتظره

مهدی رضایی
او فارغالتحصیل رشته مهندسی نرمافزار است و فعالیت حرفهای خود را در عرصه رسانه از سال ۱۳۹۷ به عنوان نویسنده در یک وبلاگ تخصصی فناوری آغاز کرده است. وی پس از کسب تجربه، به خبرگزاریهای معتبر پیوست و در حال حاضر، خبرنگار حوزه نرمافزار و هوش مصنوعی در یک مجله تکنولوژی برجسته است.


