چگونه تکامل هوش مصنوعی امنیت آن را تغییر خواهد داد؟

هجوم تبلیغاتی هوش مصنوعی در اوج خود قرار دارد. از یک سو، هوش مصنوعی به عنوان راه‌حلی برای تمام مشکلات و از سوی دیگر، به عنوان تهدیدی برای نابودی بشریت معرفی می‌شود. بین این دو افراط، طیف گسترده‌ای از دیدگاه‌ها با درک متفاوت از فرصت‌ها و مخاطرات هوش مصنوعی وجود دارد. عدم قطعیت زیادی در این زمینه حاکم است؛ تا حدودی به دلیل پیچیدگی ذاتی سیستم‌های هوش مصنوعی که درک کامل آن‌ها دشوار است و ناشناخته‌های بسیاری را به همراه دارد.

انسان ذاتاً تمایل به فهم مکانیسم کارکرد سیستم‌ها دارد، حتی اگر در سطح مفهومی باشد. مثلا، نیازی نیست متخصص کامپیوتر باشید تا بدانید جستجوی وب مانند جستجوی کلمات کلیدی مرتبط در یک پایگاه داده عظیم است. اما هوش مصنوعی الگوها را به شیوه‌ای می‌یابد و به پاسخ‌هایی می‌رسد که نه تنها برای کاربران عادی، بلکه حتی برای متخصصان نیز قابل درک و توضیح نیست. این ابهام در عملکرد هوش مصنوعی، اعتماد به آن را تضعیف می‌کند.

به همین دلیل تلاش‌هایی برای افزایش اعتماد به هوش مصنوعی در حال انجام است (مانند فعالیت‌های رو به رشد در حوزه هوش مصنوعی قابل توضیح). به عنوان مثال، دولت انگلستان پلتفرم تضمین هوش مصنوعی راه‌اندازی کرده است، و قانون هوش مصنوعی اتحادیه اروپا به دنبال ایجاد شرایط بهتر برای توسعه و استفاده از این فناوری است.

این اعتماد باید به سرعت برقرار شود. هوش مصنوعی به قدری فراگیر خواهد شد که حتی با احتیاط فراوان، اکثر افراد تشخیص هوش مصنوعی از سایر سیستم‌ها را دشوار خواهند یافت.

چرخه فناوری هوش مصنوعی

چرا با وجود شکاف‌های بزرگ در درک ما از هوش مصنوعی، معتقدم به این سطح از نفوذ خواهد رسید؟ از یک سو، هوش مصنوعی دهه‌هاست که در کسب‌وکار برای یافتن الگوها یا پیش‌بینی‌ها با موفقیت استفاده می‌شود. اما فقط در چند سال اخیر، پس از انتشار مقاله‌ای تحقیقاتی در سال 2017 که مشکلی را حل کرد، مدل‌های زبانی بزرگ (LLM) پدیدار شدند که امروزه مورد بحث و بررسی هستند. هیچ کس نمی‌تواند آینده را پیش‌بینی کند، اما سرمایه‌گذاری‌های عظیمی در این حوزه صورت می‌گیرد: 84 درصد از مدیران ارشد فناوری انتظار دارند بودجه هوش مصنوعی خود را تا سال 2025، 33 درصد افزایش دهند. مقیاس این سرمایه‌گذاری‌ها، شرکت‌ها را به برنامه‌ریزی در چرخه‌های پنج یا ده ساله وادار می‌کند.

این یک تعادل‌سازی بین راه‌اندازی ابتکارات برای تبدیل شدن به یک سازمان پیشرو در هوش مصنوعی، حل مشکلات فعلی و تضمین پایداری برای چند سال آینده است. اکثر فناوری‌هایی که اکنون رایج هستند، از این مرحله گذر کرده‌اند: از ایده‌آل‌سازی و تحقق تا یافتن کاربردهای عملی برای حل مشکلات واقعی، سپس هیاهو و هیجان، و در نهایت، شناخت محدودیت‌ها و برطرف کردن چالش‌ها، و در نهایت ادغام فناوری در زندگی روزمره به شکلی فراتر از چرخه‌های تبلیغاتی.

اما هوش مصنوعی در مقایسه با فناوری‌های قبلی، ماهیت ذاتاً تصادفی و مبهمی دارد که با نرم‌افزارهای سنتی بسیار متفاوت است. این امر پیامدهای مهمی برای تمام جنبه‌های استقرار هوش مصنوعی دارد. به عنوان مثال، در امنیت، اگرچه بسیاری از شیوه‌های فعلی برای ایمن‌سازی هوش مصنوعی قابل اعمال هستند، اما بیشتر به عنوان تشابه عمل می‌کنند تا راه‌حل‌های مستقیم.

پزشک شما را معاینه خواهد کرد

به مراجعه به پزشک فکر کنید. وقتی می‌گویید “حالم خوب نیست”، پزشک پاسخ نمی‌دهد: “DNA خود را به من بدهید تا همه چیز را بگویم.” این کار به دلایل مختلف، از جمله هزینه‌ها و پیچیدگی DNA که هنوز به طور کامل درک نشده است، امکان‌پذیر نیست. DNA تنها می‌تواند برخی از استعدادهای ژنتیکی را نشان دهد و عوامل محیطی را در نظر نمی‌گیرد. مثلاً دوقلوها DNA یکسانی دارند، اما می‌توانند بیماری‌های مختلفی داشته باشند.

در عوض، پزشکان به سابقه خانوادگی شما نگاه می‌کنند، آزمایش‌هایی انجام می‌دهند، سؤالاتی می‌پرسند و روش‌های مختلفی را برای تشخیص مشکل امتحان می‌کنند. پزشکان با نگاهی “اجتماعی-فنی” به مشکل شما (بیماری) می‌پردازند: سابقه خانوادگی، سبک زندگی، فعالیت‌های اخیر و جنبه اجتماعی (چه اتفاقاتی در زندگی شما رخ می‌دهد که می‌تواند علت یا عامل تشدیدکننده بیماری باشد؟) جنبه فنی، درمان (چه دارویی برای درمان شما موجود است) است، اما جنبه اجتماعی تاثیرات زیادی بر آن دارد.

رویکرد یکپارچه اجتماعی-فنی

با گذشت زمان، به وضوح مشخص می‌شود که باید همین منطق را در ایمن‌سازی هوش مصنوعی نیز به کار ببریم. امنیت سایبری به عنوان یک حوزه اجتماعی-فنی شناخته می‌شود (به هر حال، بیشتر مشکلات امنیتی ناشی از دخالت انسان هستند). در حال حاضر، به نظر می‌رسد بین جنبه‌های اجتماعی و فنی تفاوت‌گذاری وجود دارد. در مورد مهندسی اجتماعی، تهدیدات داخلی و آموزش کارکنان در مورد خطرات باز کردن پیوست‌های ناشناخته صحبت می‌کنیم. به طور جداگانه، اقدامات فنی برای امنیت یا کاهش تأثیر حملات انجام می‌دهیم.

امنیت هوش مصنوعی مستلزم ادغام جنبه‌های اجتماعی و فنی در روش‌های یکسان است، نه اینکه آن‌ها را به عنوان دو حوزه جداگانه در نظر بگیریم. مثال‌هایی وجود دارد که انتظارات ما با آنچه مدل‌های هوش مصنوعی ارائه می‌دهند، در تضاد است: به عنوان مثال، گوگل Gemini به کسی گفت “لطفا بمیر”.

این مثال چندین نکته را برجسته می‌کند. اول، ماهیت مبهم هوش مصنوعی: مدل‌های زبانی بزرگ مانند انسان فکر نمی‌کنند (اگرچه ممکن است ما را به این باور برسانند)، بنابراین درک اینکه چگونه چنین پاسخی را در یک مکالمه بی‌ضرر در مورد پیری تولید می‌کند، دشوار است.

دوم، اگر یک مدل زبانی بزرگ می‌تواند چنین پاسخی را از طریق آنچه به نظر می‌رسد یک مکالمه بی‌گناه است، تولید کند، چه اتفاقی می‌افتد وقتی عمداً قصد تولید پاسخ‌های مخرب وجود داشته باشد؟

سرانجام، حادثه Gemini اهمیت توجه به زمینه استفاده از ابزارهای هوش مصنوعی و نحوه ادغام آن‌ها در سازمان را نشان می‌دهد. این جنبه اجتماعی مهمی دارد، نه در خود سیستم، بلکه در نحوه تعامل افراد با آن.

پیچیدگی بیشتر با هوش مصنوعی فراگیر

این چه تفاوتی با هر ابزار یا راه‌حل فناوری دیگری دارد؟ ما تمایل به انسان‌انگاری هوش مصنوعی را مشاهده کرده‌ایم، به اندازه‌ای که با هیچ فناوری جدید دیگری این اتفاق نیفتاده است. کاربران عادی فکر می‌کنند با هوش مصنوعی مکالمه می‌کنند. آن‌ها کدی برای تولید پاسخ یا اقدامی نمی‌نویسند، بلکه مانند استفاده از موتورهای جستجو یا حتی افراد دیگر برای یافتن اطلاعات یا انجام کاری صحبت می‌کنند.

بزرگترین اشتباهی که می‌توانیم مرتکب شویم این است که تصور کنیم با فراگیر شدن مدل‌های هوش مصنوعی، سطح توجه به خطرات آن‌ها کاهش می‌یابد. حتی با هشدارهای روشن، اکثر کاربران نمی‌توانند تشخیص دهند که چه چیزی هوش مصنوعی است و چه چیزی نیست. تمرکز ما باید بر اطلاعات ورودی به ابزارهای هوش مصنوعی، مدل‌ها و لایه‌های تشکیل‌دهنده آن‌ها و نقاط ضعف باشد.

چالش بسیار مهم است، اما فرصت نیز بسیار زیاد است. با رویکردهای مناسب، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی جهان ما را بهبود می‌بخشد، بدون اینکه به اعتمادی که زیربنای آن است، آسیب وارد شود. سفر به سوی هوش مصنوعی امن، فقط در مورد محافظت از سیستم‌ها نیست، بلکه در مورد شکل دادن به آینده است.

مجله خبری تکنولوژی و موبایل

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *