## مایکروسافت ابزاری جدید برای مقابله با “هذیان” در مدلهای هوش مصنوعی ارائه کرده است
مایکروسافت ابزاری جدید را معرفی کرده است که به دنبال جلوگیری از تولید محتوای نادرست توسط مدلهای هوش مصنوعی است، که به طور معمول به عنوان هذیان شناخته میشود.
ویژگی جدید “اصلاح” بر اساس “تشخیص زمینهای” موجود مایکروسافت ساخته شده است، که اساسا متن تولید شده توسط هوش مصنوعی را با یک سند ورودی پشتیبان که توسط کاربر ارائه شده است، مقایسه میکند. این ابزار به عنوان بخشی از API ایمنی هوش مصنوعی Azure مایکروسافت در دسترس خواهد بود و میتواند با هر مدل تولید متن هوش مصنوعی مانند GPT-4 OpenAI و Llama متا استفاده شود.
این سرویس هر چیزی که ممکن است خطا باشد را علامت گذاری میکند و سپس با مقایسه متن با یک منبع حقیقت از طریق یک سند زمینهای (مانند رونوشتهای آپلود شده)، آن را بررسی میکند. این بدان معنی است که کاربران میتوانند به هوش مصنوعی بگویند که چه چیزهایی را به عنوان حقیقت در قالب اسناد زمینهای در نظر بگیرد.
یک اقدام موقتی
کارشناسان هشدار میدهند که در حالی که وضعیت فعلی ممکن است مفید باشد، اما به ریشه هذیانها نمیپردازد. هوش مصنوعی در واقع هیچ چیزی را “نمیداند” و فقط بر اساس مثالهایی که با آنها آموزش داده شده است، پیشبینی میکند که چه چیزی در آینده میآید.
“توانمند کردن مشتریان ما برای درک و اقدام در مورد محتوای بدون زمینه و هذیانها بسیار مهم است، به خصوص با توجه به اینکه تقاضا برای قابلیت اطمینان و دقت در محتوای تولید شده توسط هوش مصنوعی همچنان در حال افزایش است”، مایکروسافت در پست وبلاگ خود عنوان کرد.
“این قابلیت پیشگامانه، با تکیه بر ویژگی تشخیص زمینهای موجود ما، Azure AI Content Safety را قادر میسازد تا هذیانها را به طور real-time شناسایی و تصحیح کند، قبل از اینکه کاربران برنامههای هوش مصنوعی تولید کننده با آنها مواجه شوند.”
این راهاندازی، که اکنون در نسخه آزمایشی در دسترس است، بخشی از تلاشهای گسترده مایکروسافت برای قابل اعتمادتر کردن هوش مصنوعی است. هوش مصنوعی مولد تا کنون در جلب اعتماد عمومی با چالش روبرو بوده است، زیرا deepfakes و اطلاعات نادرست تصویر آن را خدشه دار کرده است، بنابراین تلاشهای بهروز شده برای ایمنتر کردن این سرویس مورد استقبال قرار خواهد گرفت.
همچنین بخشی از این به روزرسانیها “ارزیابیها” است، یک ابزار ارزیابی خطر پیشگیرانه، همچنین استنتاج محرمانه. این امر تضمین میکند که اطلاعات حساس در طول process استنتاج – که در آن مدل تصمیمات و پیشبینیها را بر اساس دادههای جدید انجام میدهد – ایمن و خصوصی بماند.
مایکروسافت و دیگر غولهای فناوری سرمایهگذاری زیادی در فناوری و زیرساختهای هوش مصنوعی انجام داده و قرار است این کار را ادامه دهند، با سرمایهگذاری 30 میلیارد دلاری که اخیراً اعلام شده است.