اگر تا به حال کارتونهایی مثل “تام و جری” را دیده باشید، احتمالاً با یک تم آشنا روبرو شدهاید: هدفی فراری که همیشه از دست تعقیبکننده فرار میکند. این بازی موش و گربه، چه به صورت واقعی و چه نمادین، شامل تعقیب چیزی است که هر بار به طرز ماهرانهای از دسترس خارج میشود.
در دنیای امنیت سایبری، مقابله با هکرهای حرفهای درست مانند همین بازی است. تیمهای امنیت سایبری به طور مداوم در تلاشاند تا پیش از حملات واقعی، دفاع از شبکههای خود را محک بزنند. به همین منظور، محققان MIT روی یک فناوری هوش مصنوعی جدید به نام “هوش مصنوعی خصمانه” کار میکنند که رفتار مهاجمان سایبری را شبیهسازی کرده و کارآیی سیستمها را در برابر حملات احتمالی بررسی میکند. این ابزار به تیمهای امنیتی کمک میکند تا شبکهها و دستگاهها را در مقابل تهدیداتی چون باجافزارها، سرقت داده یا دیگر حملات سایبری تقویت کنند.
هوش مصنوعی خصمانه چگونه در نقش مهاجمان یا مدافعان سایبری عمل میکند؟
مهاجمان سایبری در سطوح مختلفی از تواناییها و منابع فعالیت میکنند. در پایینترین سطح، ما با افرادی به اصطلاح “اسکریپتکیدی” مواجهایم که بیشتر از ابزارها و بدافزارهای شناخته شده استفاده میکنند و امیدوارند که در شبکهها یا دستگاههای فاقد امنیت نفوذ کنند. در سطح میانی، مزدوران سایبری قرار دارند که با بهرهگیری از منابع و سازماندهی بهتر، سازمانها را با باجافزارها و حملات اخاذی هدف قرار میدهند. و در اوج این طیف، گروههای پیشرفتهای قرار دارند که بعضاً مورد حمایت دولتها هستند و حملاتی پیچیده و دشوار مانند تهدیدات پیشرفته و مداوم (APT) را به اجرا میگذارند.
این مهاجمان از هوش تخصصی و پیشرفتهای استفاده میکنند که به آن “هوش خصمانه” گفته میشود. آنها ابزارهایی بسیار فنی طراحی میکنند و استراتژی حملات خود را مرحله به مرحله با یادگیری از موقعیت و محیط تنظیم میکنند. برای پیشرفتهترین مهاجمان، این استراتژی ممکن است به اندازهای پیچیده باشد که از شناسایی توسط دفاعهای ما پنهان بماند. حتی ممکن است شواهد غلطی ایجاد کنند که ردپای آنها را به مهاجمان دیگری نسبت دهد!
هدف اصلی تحقیقات من، شبیهسازی همین نوع هوش خصمانه از طریق هوش مصنوعی و یادگیری ماشینی است. تیم من تلاش میکند عاملهای سایبری طراحی کند که رفتار مهاجمان انسانی را تقلید کنند و همچنین روند یادگیری و سازگاری که در رقابت تسلیحاتی سایبری وجود دارد را مدلسازی کنند.
در طرف دیگر این رقابت، دفاعهای سایبری وجود دارند که خود بسیار پیچیده هستند. این سیستمهای دفاعی شامل طراحی ابزارهای شناسایی، پردازش لاگهای سیستم، ارسال هشدارهای مناسب و مدیریت رخدادها میشوند. ما نیز با هدف کمک به بهبود این دفاعها، از هوش مصنوعی در این زمینهها بهره میبریم.
یکی دیگر از ویژگیهای جالب هوش خصمانه، رقابت مداوم بین مهاجم و مدافع است. مشابه بازی “تام و جری”، این رقابت باعث میشود هر بار مهارتها بهبود یابند و یک مسابقه تسلیحاتی ادامهدار شکل بگیرد. تیم ما تلاش میکند همین رقابت را در دنیای سایبری شبیهسازی کند.
مثالهایی از کاربرد هوش مصنوعی خصمانه در زندگی روزمره
یادگیری ماشینی در حوزههای متعددی به امنیت سایبری کمک کرده است. ابزارهای شناسایی تهدید، سیستمهای بررسی رفتارهای غیرمعمول و ابزارهای محافظت از اسپم روی موبایل شما از جمله این کاربردها هستند.
ما در آزمایشگاه خود هوش مصنوعیهای مخرب طراحی میکنیم که دقیقاً همانند مهاجمان سایبری حرفهای رفتار میکنند. این ابزارها قادر به تحلیل دانش سایبری، برنامهریزی مراحل حمله و تصمیمگیری در مراحل مختلف یک کمپین حمله هستند.
در آزمایش امنیت شبکهها، ابزارهای هوش مصنوعی خصمانه میتوانند به عنوان مهاجم نقش بازی کنند و ضعفهای سیستم را به ما نشان دهند. چنین آزمایشهایی باعث میشود بهتر بتوانیم سیستمهای دفاعی را تقویت کنیم. همچنین به کمک یادگیری ماشینی، رقابتی شبیه به مسابقه تسلیحاتی بین مهاجمان و مدافعان سایبری شبیهسازی میشود که به ما امکان پیشبینی اقدامات مهاجم را میدهد.
مهاجمان سایبری چگونه به تهدیدات جدید سازگار میشوند؟
ما دائماً با انتشار نرمافزارها و تنظیمات جدید سیستمهای دیجیتالی روبهرو هستیم. هر نسخه جدید ممکن است دارای ضعفهایی باشد که مهاجمان بتوانند از آنها سوءاستفاده کنند. برخی از این آسیبپذیریها شناخته شدهاند و برخی دیگر کاملاً نوظهور هستند.
برای مثال، زمانی که ما با حملات “انکار سرویس” درگیر بودیم، تصور نمیکردیم که روزی با مشکلی به نام باجافزار روبرو شویم. امروز، ما از جاسوسی سایبری گرفته تا سرقت مالکیت معنوی و حملات به زیرساختهای حیاتی مانند شبکههای مخابراتی، مالی، درمانی و انرژی در حال جنگ هستیم.
خوشبختانه تلاشهای گستردهای در راستای حفاظت از زیرساختهای حیاتی انجام میشود. این تلاشها باید به محصولات و خدمات مبتنی بر هوش مصنوعی ترجمه شوند تا بسیاری از این دفاعها به صورت خودکار انجام شوند. همچنین نیاز داریم که ابزارهای هوشمند و پیشرفتهتری طراحی کنیم تا بتوانیم همیشه یک قدم جلوتر از مهاجمان باشیم.
برای اطلاعات بیشتر در مورد این موضوع میتوانید به لینک منبع زیر مراجعه کنید: