دلویت روی هوش مصنوعی سرمایه‌گذاری می‌کند؛ وقتی اعتماد به فناوری با هزینه همراه است

شرکت مشاوره‌ای دلویت هم‌زمان با اعلام یک قرارداد بزرگ تجاری برای گسترش استفاده از هوش مصنوعی، با عواقب تولید محتوای نادرستِ مبتنی بر همین فناوری در یک گزارش دولتی مواجه شد؛ ترکیبی که تصویری واقعی از فرصت‌ها و ریسک‌های ادغام گسترده هوش مصنوعی در خدمات حرفه‌ای ارائه می‌دهد.

قرارداد استراتژیک با Anthropic

دلویت توافقی برای به‌کارگیری گسترده پلتفرم هوش مصنوعی Anthropic (چت‌بات Claude) برای نزدیک به ۵۰۰ هزار نیروی کار خود پیش برده است. شرکت قصد دارد این فناوری را در قالب «پرسوناهای» اختصاصی برای واحدهای مختلف مانند حسابداری و توسعه نرم‌افزار و نیز محصولات تطبیق‌پذیر برای صنایع حساس مانند بانکداری، سلامت و خدمات عمومی پیاده‌سازی کند.

Deloitte goes all in on AI — despite having to issue a hefty refund for use of AI
Deloitte goes all in on AI — despite having to issue a hefty refund for use of AI

هم‌زمانی تلخ: گزارش دولتی و بازپرداخت قرارداد

در همان روز انتشار خبر همکاری، دولت استرالیا اعلام کرد دلویت به‌خاطر خطاهای محتواییِ ناشی از استفادهٔ هوش مصنوعی در یک گزارش تأمین اجتماعی-شغلی مجبور به استرداد بخشی از قرارداد شده است. این گزارش شامل ارجاعات ساختگی به منابع علمی و اطلاعات اشتباه بود که نسخهٔ اصلاح‌شده آن بعداً منتشر شد و دلویت پرداخت نهایی به قرارداد را بازپس گرفت.

درس عملی: سودمندی در برابر اعتبار

اتخاذ سریع فناوری‌های نوین می‌تواند بهره‌وری و نوآوری را به‌سرعت افزایش دهد، اما وقتی خروجی‌ها برای تصمیم‌گیران دولتی یا مشتریان حیاتی به کار می‌روند، هر خطای تولیدشده توسط مدل‌های زبانی می‌تواند هزینهٔ مالی، اعتباری و حقوقی جدی در پی داشته باشد. این اتفاق یادآور می‌شود که حتی شرکت‌های بزرگ مشاوره نیز در کنترل «هالوسی‌ناسیون» (آفریدن اطلاعات ساختگی توسط مدل‌ها) چالش دارند.

ریسک‌های نمادین‌تر از یک خطا

نمونهٔ دلویت تنها مورد نیست: مؤسسات خبری و شرکت‌های فناوری مختلف در ماه‌های اخیر خطاهای تولیدشده توسط هوش مصنوعی را تجربه کرده‌اند؛ از فهرست‌های کتاب ساختگی تا مراجع حقوقیِ اشتباه که پیامدهایی فراتر از یک اشتباه ساده دارند. این الگو نشان می‌دهد که پذیرش گستردهٔ AI بدون مکانیزم‌های تضمین صحت و مسئولیت‌پذیری، مخاطرات نظام‌مند تولید می‌کند.

اقدامات لازم برای شرکت‌های حرفه‌ای

برای کاهش مخاطرات کاربرد AI در خدمات حرفه‌ای لازم است هم‌زمان روی سه محور کار شود:

  • استقرار لایه‌های اعتبارسنجی انسانی و خودکار که خروجی‌های مدل را پیش از انتشار یا تصمیم‌سازی تصدیق کنند؛
  • تدوین چارچوب‌های حقوقی، قراردادی و بیمه‌ای که مسئولیت خطاها را مشخص کرده و جبران خسارت را تسهیل نماید.

فرصت واقعی: هوش مصنوعی مسئولانه

با وجود خطرها، هوش مصنوعی پتانسیل تغییر فرآیندهای کاری، تسریع تحلیل‌ها و خلق محصولات تطبیق‌پذیر برای مشتریان را دارد. کلید موفقیت در شرکت‌هایی مانند دلویت نه امتناع از فناوری بلکه طراحی فرایندهای «هوش مصنوعی مسئول» است؛ فرایندهایی که آموزش مدل، ممیزی مداوم، کنترل کیفیت داده و پاسخگویی انسانی را در خود جای دهند.

پیام نهایی برای مشتریان و ناظران بازار

وقتی شرکت‌های بزرگ اعلام می‌کنند «همه‌چیز قرار است با AI انجام شود»، باید هم فرصت و هم خطر را در نظر گرفت. قراردادها و تبلیغاتِ گسترده باید با سازوکارهای شفافِ تضمین کیفیت همراه شوند تا هوش مصنوعی به تقویت اعتماد و کارآمدی بینجامد، نه به خلق بحران‌های اعتباری و مالی. در رقابت برای نوآوری، مسئولیت‌پذیری همان سرمایهٔ حیاتی جدید است.

مجله خبری تکنولوژی تک مگ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *