هجوم تبلیغاتی هوش مصنوعی در اوج خود قرار دارد. از یک سو، هوش مصنوعی به عنوان راهحلی برای تمام مشکلات و از سوی دیگر، به عنوان تهدیدی برای نابودی بشریت معرفی میشود. بین این دو افراط، طیف گستردهای از دیدگاهها با درک متفاوت از فرصتها و مخاطرات هوش مصنوعی وجود دارد. عدم قطعیت زیادی در این زمینه حاکم است؛ تا حدودی به دلیل پیچیدگی ذاتی سیستمهای هوش مصنوعی که درک کامل آنها دشوار است و ناشناختههای بسیاری را به همراه دارد.
انسان ذاتاً تمایل به فهم مکانیسم کارکرد سیستمها دارد، حتی اگر در سطح مفهومی باشد. مثلا، نیازی نیست متخصص کامپیوتر باشید تا بدانید جستجوی وب مانند جستجوی کلمات کلیدی مرتبط در یک پایگاه داده عظیم است. اما هوش مصنوعی الگوها را به شیوهای مییابد و به پاسخهایی میرسد که نه تنها برای کاربران عادی، بلکه حتی برای متخصصان نیز قابل درک و توضیح نیست. این ابهام در عملکرد هوش مصنوعی، اعتماد به آن را تضعیف میکند.
به همین دلیل تلاشهایی برای افزایش اعتماد به هوش مصنوعی در حال انجام است (مانند فعالیتهای رو به رشد در حوزه هوش مصنوعی قابل توضیح). به عنوان مثال، دولت انگلستان پلتفرم تضمین هوش مصنوعی راهاندازی کرده است، و قانون هوش مصنوعی اتحادیه اروپا به دنبال ایجاد شرایط بهتر برای توسعه و استفاده از این فناوری است.
این اعتماد باید به سرعت برقرار شود. هوش مصنوعی به قدری فراگیر خواهد شد که حتی با احتیاط فراوان، اکثر افراد تشخیص هوش مصنوعی از سایر سیستمها را دشوار خواهند یافت.
چرخه فناوری هوش مصنوعی
چرا با وجود شکافهای بزرگ در درک ما از هوش مصنوعی، معتقدم به این سطح از نفوذ خواهد رسید؟ از یک سو، هوش مصنوعی دهههاست که در کسبوکار برای یافتن الگوها یا پیشبینیها با موفقیت استفاده میشود. اما فقط در چند سال اخیر، پس از انتشار مقالهای تحقیقاتی در سال 2017 که مشکلی را حل کرد، مدلهای زبانی بزرگ (LLM) پدیدار شدند که امروزه مورد بحث و بررسی هستند. هیچ کس نمیتواند آینده را پیشبینی کند، اما سرمایهگذاریهای عظیمی در این حوزه صورت میگیرد: 84 درصد از مدیران ارشد فناوری انتظار دارند بودجه هوش مصنوعی خود را تا سال 2025، 33 درصد افزایش دهند. مقیاس این سرمایهگذاریها، شرکتها را به برنامهریزی در چرخههای پنج یا ده ساله وادار میکند.
این یک تعادلسازی بین راهاندازی ابتکارات برای تبدیل شدن به یک سازمان پیشرو در هوش مصنوعی، حل مشکلات فعلی و تضمین پایداری برای چند سال آینده است. اکثر فناوریهایی که اکنون رایج هستند، از این مرحله گذر کردهاند: از ایدهآلسازی و تحقق تا یافتن کاربردهای عملی برای حل مشکلات واقعی، سپس هیاهو و هیجان، و در نهایت، شناخت محدودیتها و برطرف کردن چالشها، و در نهایت ادغام فناوری در زندگی روزمره به شکلی فراتر از چرخههای تبلیغاتی.
اما هوش مصنوعی در مقایسه با فناوریهای قبلی، ماهیت ذاتاً تصادفی و مبهمی دارد که با نرمافزارهای سنتی بسیار متفاوت است. این امر پیامدهای مهمی برای تمام جنبههای استقرار هوش مصنوعی دارد. به عنوان مثال، در امنیت، اگرچه بسیاری از شیوههای فعلی برای ایمنسازی هوش مصنوعی قابل اعمال هستند، اما بیشتر به عنوان تشابه عمل میکنند تا راهحلهای مستقیم.
پزشک شما را معاینه خواهد کرد
به مراجعه به پزشک فکر کنید. وقتی میگویید “حالم خوب نیست”، پزشک پاسخ نمیدهد: “DNA خود را به من بدهید تا همه چیز را بگویم.” این کار به دلایل مختلف، از جمله هزینهها و پیچیدگی DNA که هنوز به طور کامل درک نشده است، امکانپذیر نیست. DNA تنها میتواند برخی از استعدادهای ژنتیکی را نشان دهد و عوامل محیطی را در نظر نمیگیرد. مثلاً دوقلوها DNA یکسانی دارند، اما میتوانند بیماریهای مختلفی داشته باشند.
در عوض، پزشکان به سابقه خانوادگی شما نگاه میکنند، آزمایشهایی انجام میدهند، سؤالاتی میپرسند و روشهای مختلفی را برای تشخیص مشکل امتحان میکنند. پزشکان با نگاهی “اجتماعی-فنی” به مشکل شما (بیماری) میپردازند: سابقه خانوادگی، سبک زندگی، فعالیتهای اخیر و جنبه اجتماعی (چه اتفاقاتی در زندگی شما رخ میدهد که میتواند علت یا عامل تشدیدکننده بیماری باشد؟) جنبه فنی، درمان (چه دارویی برای درمان شما موجود است) است، اما جنبه اجتماعی تاثیرات زیادی بر آن دارد.
رویکرد یکپارچه اجتماعی-فنی
با گذشت زمان، به وضوح مشخص میشود که باید همین منطق را در ایمنسازی هوش مصنوعی نیز به کار ببریم. امنیت سایبری به عنوان یک حوزه اجتماعی-فنی شناخته میشود (به هر حال، بیشتر مشکلات امنیتی ناشی از دخالت انسان هستند). در حال حاضر، به نظر میرسد بین جنبههای اجتماعی و فنی تفاوتگذاری وجود دارد. در مورد مهندسی اجتماعی، تهدیدات داخلی و آموزش کارکنان در مورد خطرات باز کردن پیوستهای ناشناخته صحبت میکنیم. به طور جداگانه، اقدامات فنی برای امنیت یا کاهش تأثیر حملات انجام میدهیم.
امنیت هوش مصنوعی مستلزم ادغام جنبههای اجتماعی و فنی در روشهای یکسان است، نه اینکه آنها را به عنوان دو حوزه جداگانه در نظر بگیریم. مثالهایی وجود دارد که انتظارات ما با آنچه مدلهای هوش مصنوعی ارائه میدهند، در تضاد است: به عنوان مثال، گوگل Gemini به کسی گفت “لطفا بمیر”.
این مثال چندین نکته را برجسته میکند. اول، ماهیت مبهم هوش مصنوعی: مدلهای زبانی بزرگ مانند انسان فکر نمیکنند (اگرچه ممکن است ما را به این باور برسانند)، بنابراین درک اینکه چگونه چنین پاسخی را در یک مکالمه بیضرر در مورد پیری تولید میکند، دشوار است.
دوم، اگر یک مدل زبانی بزرگ میتواند چنین پاسخی را از طریق آنچه به نظر میرسد یک مکالمه بیگناه است، تولید کند، چه اتفاقی میافتد وقتی عمداً قصد تولید پاسخهای مخرب وجود داشته باشد؟
سرانجام، حادثه Gemini اهمیت توجه به زمینه استفاده از ابزارهای هوش مصنوعی و نحوه ادغام آنها در سازمان را نشان میدهد. این جنبه اجتماعی مهمی دارد، نه در خود سیستم، بلکه در نحوه تعامل افراد با آن.
پیچیدگی بیشتر با هوش مصنوعی فراگیر
این چه تفاوتی با هر ابزار یا راهحل فناوری دیگری دارد؟ ما تمایل به انسانانگاری هوش مصنوعی را مشاهده کردهایم، به اندازهای که با هیچ فناوری جدید دیگری این اتفاق نیفتاده است. کاربران عادی فکر میکنند با هوش مصنوعی مکالمه میکنند. آنها کدی برای تولید پاسخ یا اقدامی نمینویسند، بلکه مانند استفاده از موتورهای جستجو یا حتی افراد دیگر برای یافتن اطلاعات یا انجام کاری صحبت میکنند.
بزرگترین اشتباهی که میتوانیم مرتکب شویم این است که تصور کنیم با فراگیر شدن مدلهای هوش مصنوعی، سطح توجه به خطرات آنها کاهش مییابد. حتی با هشدارهای روشن، اکثر کاربران نمیتوانند تشخیص دهند که چه چیزی هوش مصنوعی است و چه چیزی نیست. تمرکز ما باید بر اطلاعات ورودی به ابزارهای هوش مصنوعی، مدلها و لایههای تشکیلدهنده آنها و نقاط ضعف باشد.
چالش بسیار مهم است، اما فرصت نیز بسیار زیاد است. با رویکردهای مناسب، میتوانیم اطمینان حاصل کنیم که هوش مصنوعی جهان ما را بهبود میبخشد، بدون اینکه به اعتمادی که زیربنای آن است، آسیب وارد شود. سفر به سوی هوش مصنوعی امن، فقط در مورد محافظت از سیستمها نیست، بلکه در مورد شکل دادن به آینده است.