تقریباً نیمی از ترافیک اینترنت توسط موجودیتهای خودکار به نام رباتها تولید میشود، که بخش قابل توجهی از آنها تهدیدی برای کاربران و کسبوکارها در فضای وب محسوب میشوند.
کریستوف سی. سمپر، بنیانگذار شرکت AIPRM، در بیانیهای به TechNewsWorld گفت: «رباتها میتوانند با کسب اعتماد کاربران و سوءاستفاده از آن برای کلاهبرداران، در ایجاد کلاهبرداریهای فیشینگ نقش داشته باشند. این کلاهبرداریها میتوانند پیامدهای جدی برای قربانی داشته باشند، از جمله ضرر مالی، سرقت هویت و انتشار بدافزار.» او افزود: «متاسفانه، این تنها تهدید امنیتی ناشی از رباتها نیست. آنها همچنین میتوانند به شهرت برندها آسیب برسانند، بهویژه برای برندها و کسبوکارهایی که دارای پروفایلهای محبوب در رسانههای اجتماعی و نرخ تعامل بالا هستند. رباتها با مرتبط کردن یک برند با شیوههای تقلبی و غیراخلاقی، میتوانند شهرت برند را خدشهدار کرده و وفاداری مصرفکننده را کاهش دهند.»

طبق گزارش رباتهای مخرب Imperva 2024، سطح ترافیک رباتهای مخرب برای پنجمین سال متوالی افزایش یافته است، که نشاندهنده یک روند نگرانکننده است. این گزارش خاطرنشان میکند که این افزایش تا حدی ناشی از افزایش محبوبیت هوش مصنوعی (AI) و مدلهای یادگیری بزرگ (LLM) است.
در سال 2023، رباتهای مخرب 32 درصد از کل ترافیک اینترنت را تشکیل دادند که 1.8 درصد افزایش نسبت به سال 2022 را نشان میدهد. سهم ترافیک رباتهای خوب نیز افزایش یافت، هرچند کمی کمتر، از 17.3 درصد کل ترافیک اینترنت در سال 2022 به 17.6 درصد در سال 2023. در مجموع، 49.6 درصد از کل ترافیک اینترنت در سال 2023 انسانی نبوده است، زیرا سطح ترافیک انسانی به 50.4 درصد از کل ترافیک کاهش یافته است.
جیمز مککویگان، مدافع آگاهی امنیتی در KnowBe4، توضیح داد: «رباتهای خوب به نمایه سازی وب برای موتورهای جستجو، خودکارسازی نظارت بر امنیت سایبری و کمک به خدمات مشتری از طریق چتباتها کمک میکنند.» او به TechNewsWorld گفت: «آنها به شناسایی آسیبپذیریها، بهبود گردش کار فناوری اطلاعات و سادهسازی رویههای آنلاین کمک میکنند. نکته مهم این است که بدانیم کدام اتوماسیون ارزشمند و کدام فعالیت شوم است.»
توماس ریچاردز، مدیر تیم شبکه و رد در Black Duck Software، توضیح داد: «اتوماسیون و موفقیت، روندهای رشد ترافیک باتنت را هدایت میکنند. توانایی مقیاسپذیری به بازیگران مخرب اجازه میدهد تا به اهداف خود برسند. هوش مصنوعی با اجازه دادن به این بازیگران مخرب برای عمل کردن انسانیتر و خودکارسازی کدنویسی و سایر وظایف، تأثیرگذار است. برای مثال، گوگل فاش کرده است که از جمینی برای ایجاد موارد مخرب استفاده شده است.» او ادامه داد: «ما این را در سایر تجربیات روزمره نیز میبینیم، مانند تلاشهای سالهای اخیر برای تهیه بلیط کنسرتهای رویدادهای محبوب. دلالان راههایی برای ایجاد کاربران یا استفاده از حسابهای آلوده برای خرید بلیط سریعتر از یک انسان پیدا میکنند. آنها با فروش مجدد بلیطها با قیمت بسیار بالاتر، درآمد کسب میکنند.»
استفاده از حملات خودکار آسان و سودآور است، استفان کووسکی، مدیر ارشد فناوری میدانی در SlashNext، افزود: «مجرمان از ابزارهای پیچیده برای دور زدن اقدامات امنیتی سنتی استفاده میکنند. سیستمهای مبتنی بر هوش مصنوعی، رباتها را قانعکنندهتر و شناسایی آنها را دشوارتر میکنند، و به آنها امکان میدهند رفتار انسانی را بهتر تقلید کرده و با اقدامات دفاعی سازگار شوند. ترکیب ابزارهای هوش مصنوعی به آسانی در دسترس و ارزش فزاینده دادههای سرقتشده، شرایط مناسبی را برای حملات رباتهای پیشرفتهتر در آینده ایجاد میکند.»
دیوید براوچلر، مدیر فنی و رئیس امنیت هوش مصنوعی و ML در NCC Group، انتظار دارد ترافیک اینترنت غیرانسانی به رشد خود ادامه دهد. او به TechNewsWorld گفت: «با اتصال بیشتر دستگاهها به اینترنت، پلتفرمهای SaaS قابلیتهای متصل به هم را اضافه میکنند و دستگاههای آسیبپذیر جدید وارد صحنه میشوند، ترافیک مرتبط با رباتها فرصت داشته است تا سهم خود را از پهنای باند شبکه افزایش دهد.» براوچلر افزود که رباتهای مخرب قادر به ایجاد آسیبهای بزرگ هستند. او گفت: «رباتها برای ایجاد قطعیهای گسترده با غرق کردن منابع شبکه برای جلوگیری از دسترسی به سیستمها و خدمات استفاده شدهاند. با ظهور هوش مصنوعی مولد، رباتها همچنین میتوانند برای تقلید فعالیت کاربر واقعی در پلتفرمهای آنلاین، افزایش خطر هرزنامه و کلاهبرداری استفاده شوند. آنها همچنین میتوانند آسیبپذیریهای امنیتی را در سیستمهای رایانهای اسکن و از آنها سوءاستفاده کنند.»
او ادعا کرد که بزرگترین خطر ناشی از هوش مصنوعی، گسترش هرزنامه است. او توضیح داد: «هیچ راهحل فنی قوی برای شناسایی و مسدود کردن این نوع محتوا آنلاین وجود ندارد. کاربران این پدیده را هرزنامههای هوش مصنوعی مینامند و خطر غرق شدن سیگنال تعاملات آنلاین مشروع در نویز محتوای مصنوعی را به همراه دارد.» او هشدار داد که صنعت باید هنگام بررسی بهترین راهحل برای این مشکل بسیار مراقب باشد. او گفت: «بسیاری از راهحلهای بالقوه میتوانند آسیب بیشتری ایجاد کنند، بهویژه آنهایی که خطر حمله به حریم خصوصی آنلاین را دارند.»
براوچلر اذعان کرد که شناسایی یک ربات مخرب برای انسانها دشوار است. او گفت: «اکثریت قریب به اتفاق رباتها به گونهای عمل نمیکنند که انسانها بتوانند آنها را شناسایی کنند. آنها مستقیماً با سیستمهای در معرض اینترنت تماس میگیرند و دادهها را جستجو میکنند یا با خدمات تعامل دارند.» او ادامه داد: «دسته رباتهایی که بیشتر انسانها نگران آن هستند، عوامل هوش مصنوعی خودمختار هستند که میتوانند برای کلاهبرداری از مردم آنلاین، خود را به عنوان انسانها جا بزنند. بسیاری از چتباتهای هوش مصنوعی از الگوهای گفتاری قابل پیشبینی استفاده میکنند که کاربران میتوانند با تعامل با مولدهای متن هوش مصنوعی آنلاین، آنها را یاد بگیرند و تشخیص دهند.» او گفت: «به همین ترتیب، تصاویر تولید شده توسط هوش مصنوعی دارای تعدادی “نشانهها” هستند که کاربران میتوانند یاد بگیرند به دنبال آنها باشند، از جمله الگوهای شکسته، مانند دستها و ساعتهای نامرتب، لبههای اشیاء که در اشیاء دیگر ذوب میشوند و پسزمینههای مبهم.» او افزود: «صداهای هوش مصنوعی نیز دارای لحنها و عبارات غیرمعمول هستند که کاربران میتوانند یاد بگیرند آنها را تشخیص دهند.»
رباتهای مخرب اغلب در پلتفرمهای رسانههای اجتماعی برای کسب دسترسی مطمئن به افراد یا گروهها استفاده میشوند. کووسکی هشدار داد: «مراقب نشانههای آشکار مانند الگوهای غیرمعمول در درخواستهای دوستی، تصاویر پروفایل عمومی یا دزدیده شده و حسابهایی که با سرعت یا فرکانسهای غیرانسانی پست میگذارند، باشید.» او همچنین توصیه کرد که مراقب پروفایلهایی با اطلاعات شخصی محدود، الگوهای تعامل مشکوک یا فشار دادن دستور کارهای خاص از طریق پاسخهای خودکار باشید. او ادامه داد: «در شرکتها، تجزیه و تحلیل رفتاری بلادرنگ میتواند اقدامات خودکاری را که با الگوهای انسانی طبیعی مطابقت ندارند، مانند کلیکهای غیرممکن سریع یا پر کردن فرمها، شناسایی کند.»
رباتهای مخرب میتوانند تهدیدی قابل توجه برای شرکتها باشند، کن دانهام، مدیر واحد تحقیقات تهدید در Qualys، خاطرنشان کرد: «هنگامی که یک بازیگر تهدید آنها را جمعآوری کند، میتوان آنها را مسلح کرد. رباتها منابع و قابلیتهای باورنکردنی برای انجام حملات ناشناس، توزیعشده و ناهمزمان علیه اهداف انتخابی، مانند حملات اعتبارنامه نیروی بیرحمانه، حملات انکار سرویس توزیعشده، اسکنهای آسیبپذیری، تلاش برای بهرهبرداری و موارد دیگر دارند.» مککویگان افزود: «رباتهای مخرب همچنین میتوانند پورتالهای ورود به سیستم، نقاط پایانی API و سیستمهای عمومی را هدف قرار دهند، که با بررسی ضعفها برای یافتن راهی برای دسترسی به زیرساخت و دادههای داخلی، خطراتی را برای سازمانها ایجاد میکند. بدون استراتژی