شرکت مشاورهای دلویت همزمان با اعلام یک قرارداد بزرگ تجاری برای گسترش استفاده از هوش مصنوعی، با عواقب تولید محتوای نادرستِ مبتنی بر همین فناوری در یک گزارش دولتی مواجه شد؛ ترکیبی که تصویری واقعی از فرصتها و ریسکهای ادغام گسترده هوش مصنوعی در خدمات حرفهای ارائه میدهد.
قرارداد استراتژیک با Anthropic
دلویت توافقی برای بهکارگیری گسترده پلتفرم هوش مصنوعی Anthropic (چتبات Claude) برای نزدیک به ۵۰۰ هزار نیروی کار خود پیش برده است. شرکت قصد دارد این فناوری را در قالب «پرسوناهای» اختصاصی برای واحدهای مختلف مانند حسابداری و توسعه نرمافزار و نیز محصولات تطبیقپذیر برای صنایع حساس مانند بانکداری، سلامت و خدمات عمومی پیادهسازی کند.

همزمانی تلخ: گزارش دولتی و بازپرداخت قرارداد
در همان روز انتشار خبر همکاری، دولت استرالیا اعلام کرد دلویت بهخاطر خطاهای محتواییِ ناشی از استفادهٔ هوش مصنوعی در یک گزارش تأمین اجتماعی-شغلی مجبور به استرداد بخشی از قرارداد شده است. این گزارش شامل ارجاعات ساختگی به منابع علمی و اطلاعات اشتباه بود که نسخهٔ اصلاحشده آن بعداً منتشر شد و دلویت پرداخت نهایی به قرارداد را بازپس گرفت.
درس عملی: سودمندی در برابر اعتبار
اتخاذ سریع فناوریهای نوین میتواند بهرهوری و نوآوری را بهسرعت افزایش دهد، اما وقتی خروجیها برای تصمیمگیران دولتی یا مشتریان حیاتی به کار میروند، هر خطای تولیدشده توسط مدلهای زبانی میتواند هزینهٔ مالی، اعتباری و حقوقی جدی در پی داشته باشد. این اتفاق یادآور میشود که حتی شرکتهای بزرگ مشاوره نیز در کنترل «هالوسیناسیون» (آفریدن اطلاعات ساختگی توسط مدلها) چالش دارند.
ریسکهای نمادینتر از یک خطا
نمونهٔ دلویت تنها مورد نیست: مؤسسات خبری و شرکتهای فناوری مختلف در ماههای اخیر خطاهای تولیدشده توسط هوش مصنوعی را تجربه کردهاند؛ از فهرستهای کتاب ساختگی تا مراجع حقوقیِ اشتباه که پیامدهایی فراتر از یک اشتباه ساده دارند. این الگو نشان میدهد که پذیرش گستردهٔ AI بدون مکانیزمهای تضمین صحت و مسئولیتپذیری، مخاطرات نظاممند تولید میکند.
اقدامات لازم برای شرکتهای حرفهای
برای کاهش مخاطرات کاربرد AI در خدمات حرفهای لازم است همزمان روی سه محور کار شود:
- استقرار لایههای اعتبارسنجی انسانی و خودکار که خروجیهای مدل را پیش از انتشار یا تصمیمسازی تصدیق کنند؛
- تدوین چارچوبهای حقوقی، قراردادی و بیمهای که مسئولیت خطاها را مشخص کرده و جبران خسارت را تسهیل نماید.
فرصت واقعی: هوش مصنوعی مسئولانه
با وجود خطرها، هوش مصنوعی پتانسیل تغییر فرآیندهای کاری، تسریع تحلیلها و خلق محصولات تطبیقپذیر برای مشتریان را دارد. کلید موفقیت در شرکتهایی مانند دلویت نه امتناع از فناوری بلکه طراحی فرایندهای «هوش مصنوعی مسئول» است؛ فرایندهایی که آموزش مدل، ممیزی مداوم، کنترل کیفیت داده و پاسخگویی انسانی را در خود جای دهند.
پیام نهایی برای مشتریان و ناظران بازار
وقتی شرکتهای بزرگ اعلام میکنند «همهچیز قرار است با AI انجام شود»، باید هم فرصت و هم خطر را در نظر گرفت. قراردادها و تبلیغاتِ گسترده باید با سازوکارهای شفافِ تضمین کیفیت همراه شوند تا هوش مصنوعی به تقویت اعتماد و کارآمدی بینجامد، نه به خلق بحرانهای اعتباری و مالی. در رقابت برای نوآوری، مسئولیتپذیری همان سرمایهٔ حیاتی جدید است.

مهدی رضایی
او فارغالتحصیل رشته مهندسی نرمافزار است و فعالیت حرفهای خود را در عرصه رسانه از سال ۱۳۹۷ به عنوان نویسنده در یک وبلاگ تخصصی فناوری آغاز کرده است. وی پس از کسب تجربه، به خبرگزاریهای معتبر پیوست و در حال حاضر، خبرنگار حوزه نرمافزار و هوش مصنوعی در یک مجله تکنولوژی برجسته است.