مطالعات جدید نرخ بالای پاسخ‌های غلط در محبوب‌ترین مدل‌های هوش مصنوعی را آشکار ساخت

مدل‌های هوش مصنوعی در سال‌های اخیر با سرعت خیره‌کننده‌ای توسعه یافته‌اند و به تدریج به ابزاری کلیدی در بخش‌های مختلف زندگی، از مراقبت‌های بهداشتی و امور مالی گرفته تا سرگرمی و ارتباطات، تبدیل شده‌اند. این گسترش نفوذ، اعتمادی عمومی را نسبت به قابلیت‌ها و دقت هوش مصنوعی به وجود آورده است. با این حال، گزارش‌های اخیر نشان می‌دهد که نباید به طور کامل به این فناوری نوظهور اعتماد کرد؛ چرا که برخی از پرکاربردترین مدل‌های هوش مصنوعی، آمار نگران‌کننده‌ای از پاسخ‌های غلط یا «توهم» (Hallucination) را از خود نشان می‌دهند. این یافته‌ها، ضرورت شفافیت و ارزیابی دقیق‌تر هوش مصنوعی را بیش از پیش آشکار می‌کند.

image

افزایش نگرانی‌ها پیرامون دقت و قابل اعتماد بودن پاسخ‌های هوش مصنوعی

درحالی‌که هوش مصنوعی مزایای بی‌شماری را وعده می‌دهد، خطرات پنهان و جدی نیز با خود به همراه دارد، به‌ویژه از سوی ابزارهایی که پتانسیل سوءاستفاده یا ایجاد عواقب ناخواسته را دارند. اغلب تصور می‌شود که مدل‌های مطرح‌تر و محبوب‌تر هوش مصنوعی، قابل اعتمادتر هستند، اما بررسی‌ها خلاف این را ثابت کرده‌اند. بسیاری از این فناوری‌ها، که در کانون بحث‌های جهانی قرار دارند، همچنان از مشکل «توهم» رنج می‌برند و افراد، سازمان‌ها و سیاست‌گذاران برای مقابله با چالش‌های ناشی از آن آمادگی کافی ندارند. این مشکل می‌تواند اعتماد کاربران را کاهش داده و در تصمیم‌گیری‌های حساس، تبعات جبران‌ناپذیری به همراه داشته باشد.

یک ابزار هوش مصنوعی زمانی خطرناک تلقی می‌شود که ویژگی‌های زیر را داشته باشد:

احتمال سوءاستفاده: قابلیت به کارگیری در کلاهبرداری، نظارت غیرمجاز یا دستکاری اطلاعات.

عدم شفافیت: عملکرد آن به دلیل پیچیدگی و ماهیت «جعبه سیاه» آن، به سختی قابل ممیزی یا کنترل باشد.

تشدید تعصبات: تقویت کلیشه‌های مضر یا تبعیض‌های موجود در داده‌های آموزشی.

تجاوز به حریم خصوصی: فراهم آوردن امکان دسترسی غیرمجاز یا سوءاستفاده از داده‌های شخصی کاربران.

خودمختاری در اقدامات مضر: توانایی عمل کردن بدون نظارت انسانی و ایجاد آسیب‌های جدی.

آشکارسازی مدل‌های هوش مصنوعی با بالاترین نرخ خطای توهم

بر اساس گزارشی که اخیراً توسط نیویورک‌تایمز منتشر و بر پایه تحقیقات دانشگاه کلمبیا استوار شده است، فهرستی از مدل‌های هوش مصنوعی با بالاترین «نرخ هالوسینیشن» (Hallucination Rate) یا همان خطای توهم ارائه شده است. توهم در هوش مصنوعی به حالتی گفته می‌شود که مدل، اطلاعات نادرست، غیرموجود یا نامرتبطی را تولید می‌کند که با واقعیت سازگار نیست. این اطلاعات غلط می‌توانند با لحنی کاملاً اطمینان‌بخش ارائه شوند و کاربر را به اشتباه بیندازند. دیدن نام برخی از این مدل‌ها و میزان خطایشان ممکن است برای بسیاری از کاربران تعجب‌آور باشد، به خصوص با توجه به شهرت و استقبال گسترده از آن‌ها.

در ادامه، برخی از این مدل‌ها و نرخ توهم آن‌ها ارائه شده است:

گراک-۳: ۹۴ درصد

گراک-۲: ۷۷ درصد

جمینای: ۷۶ درصد

دیپ‌سیک: ۶۸ درصد

چت جی‌پی‌تی: ۶۷ درصد

پرپلکسیتی پرو: ۴۵ درصد

کوپایلوت: ۴۰ درصد

پرپلکسیتی: ۳۷ درصد

این آمار نشان می‌دهد که حتی پیشرفته‌ترین مدل‌های هوش مصنوعی نیز در حال حاضر با چالش‌های اساسی در زمینه دقت و صحت اطلاعات تولیدی مواجه هستند.

درک پدیده توهم در هوش مصنوعی: ریشه‌ها و پیامدها

ریشه اصلی پدیده توهم در هوش مصنوعی را می‌توان در نحوه آموزش این مدل‌ها جستجو کرد. مدل‌های زبان بزرگ (LLMs) بر اساس حجم عظیمی از داده‌های متنی آموزش می‌بینند تا الگوها و روابط بین کلمات را بیاموزند. هدف آن‌ها تولید متنی است که از نظر آماری با داده‌های آموزشی همخوانی داشته باشد، نه لزوماً درک واقعی یا ارائه اطلاعات صحیح. گاهی اوقات، زمانی که مدل با درخواستی مواجه می‌شود که در داده‌های آموزشی آن نمونه مشابهی ندارد یا نیاز به استدلال پیچیده‌تر از توانایی‌های آن است، به جای اعتراف به ندانستن، اطلاعاتی ساختگی و نامربوط تولید می‌کند. این پدیده در زمینه‌هایی مانند پزشکی، حقوق و امور مالی می‌تواند پیامدهای فاجعه‌باری داشته باشد، جایی که تصمیمات مبتنی بر اطلاعات نادرست می‌توانند منجر به آسیب‌های جانی یا مالی جبران‌ناپذیر شوند.

مسیر پیش رو: به سوی هوش مصنوعی قابل اعتمادتر و شفاف‌تر

مواجهه با نرخ بالای خطای توهم در مدل‌های هوش مصنوعی نیازمند رویکردی چندجانبه است. از یک سو، شرکت‌های توسعه‌دهنده هوش مصنوعی باید بر بهبود الگوریتم‌ها، افزایش کیفیت داده‌های آموزشی و پیاده‌سازی مکانیزم‌های بازبینی دقیق‌تر تمرکز کنند. توسعه سیستم‌های هوش مصنوعی که بتوانند منبع اطلاعات خود را ذکر کرده و قابلیت "توضیح‌پذیری" (Explainability) بالاتری داشته باشند، از اهمیت حیاتی برخوردار است. از سوی دیگر، کاربران نیز باید با آگاهی و رویکردی انتقادی با خروجی‌های هوش مصنوعی تعامل داشته باشند و به هیچ عنوان به طور کامل به اطلاعات ارائه شده توسط این مدل‌ها اعتماد نکنند، بلکه صحت آن‌ها را از طریق منابع معتبر دیگر تأیید نمایند. سیاست‌گذاران و نهادهای قانون‌گذار نیز وظیفه دارند تا با وضع قوانین و استانداردهای مشخص برای توسعه و استفاده مسئولانه از هوش مصنوعی، از گسترش سوءاستفاده‌ها و پیامدهای منفی ناشی از خطای این فناوری جلوگیری کنند. شفافیت و آموزش عمومی، دو رکن اساسی برای شکل‌گیری آینده‌ای امن‌تر و قابل اعتمادتر با هوش مصنوعی هستند.

مجله خبری تکنولوژی


مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *