یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بودهاند، ممکن است در سالهای آینده تهاجمیتر شوند.
بر اساس این گزارش، شرکت امنیت سایبری و حریم خصوصی WithSecure مستقر در هلسینکی، آژانس حمل و نقل و ارتباطات فنلاند و آژانس تامین اضطراری ملی فنلاند در این گزارش همکاری کردهاند.
اندی پاتل پژوهشگر اطلاعاتی شرکت WithSecure میگوید: اگرچه محتوای تولید شده توسط هوش مصنوعی برای اهداف مهندسی اجتماعی استفاده شده است، اما تکنیکهای هوش مصنوعی طراحی شده برای هدایت کمپینها، انجام مراحل حمله یا کنترل منطق بدافزار هنوز در عمل مشاهده نشده است.
این مقاله روندها و پیشرفتهای کنونی در هوش مصنوعی، حملات سایبری و مناطقی را که این دو با هم تلاقی دارند، مورد بررسی قرار داده است که نشان میدهد اتخاذ زودهنگام و تکامل اقدامات پیشگیرانه برای غلبه بر این تهدیدات، کلیدی است.
تهدید در پنج سال آینده
نویسندگان این گزارش ادعا میکنند که هکهای مبتنی بر هوش مصنوعی اکنون بسیار غیر معمول هستند و بیشتر برای اهداف مهندسی اجتماعی استفاده میشوند. با این حال، آنها همچنین به روشهایی استفاده میشوند که تحلیلگران و پژوهشگران نمیتوانند مستقیماً مشاهده کنند.
اکثر چارچوبهای فعلی هوش مصنوعی به عقل انسان نزدیک نیستند و نمیتوانند به طور مستقل حملات سایبری را برنامهریزی کنند یا انجام دهند.
با این حال، مهاجمان سایبری احتمالاً در پنج سال آینده هوش مصنوعی جدیدی ایجاد خواهند کرد که میتواند به طور مستقل آسیبپذیریها را شناسایی کند، کمپینهای حمله را برنامهریزی و اجرا کند، از مخفی کاری برای جلوگیری از دفاع استفاده کند و دادههای سیستمهای آلوده یا اطلاعات منبع باز را جمعآوری یا استخراج کند.
در این گزارش آمده است: حملات مجهز به هوش مصنوعی میتوانند سریعتر اجرا شوند، قربانیان بیشتری را هدف قرار دهند و شعاع حمله بیشتری را نسبت به حملات معمولی پیدا کنند، زیرا ماهیت اتوماسیون هوشمند و این واقعیت که آنها جایگزین وظایف معمول دستی میشوند، این است.
بر اساس این مقاله، روشهای جدیدی برای مبارزه با هک مبتنی بر هوش مصنوعی مورد نیاز است که از اطلاعات مصنوعی، جعل سیستمهای احراز هویت بیومتریک و سایر قابلیتهای آینده استفاده میکند.
جعل عمیقهای مبتنی بر هوش مصنوعی
در این گزارش اشاره شده است که حملات مبتنی بر هوش مصنوعی قطعاً در جعل هویت فوق العاده خواهند بود، تاکتیکی که اغلب در حملات سایبری فیشینگ و ویشینگ(فیشینگ صوتی) استفاده میشود.
نویسندگان این گزارش پیشبینی میکنند جعل هویت توسط هوش مصنوعی مبتنی بر جعل عمیق(دیپفیک) نمونهای از قابلیتهای جدیدی است که هوش مصنوعی برای حملات مهندسی اجتماعی به ارمغان آورده است.
آنها میگویند: هیچ فناوری تاکنون قادر به تقلید متقاعد کننده صدا، حرکات و تصویر انسان مورد نظر به نحوی که قربانیان را فریب دهد، وجود نداشته است.
بسیاری از کارشناسان فناوری معتقدند که جعل عمیق بزرگترین نگرانی امنیت سایبری است.
هوش مصنوعی در این زمینه بسیار خوب عمل میکند، زیرا از قفل تلفنهای هوشمند گرفته تا دسترسی به حسابهای بانکی و پاسپورتها و همچنین تمام پیشرفتهای فنی اخیر به سمت فناوریهای بیومتریک رفته است.
با توجه به سرعت توسعه فناوری جعل عمیق، به نظر میرسد سیستمهای امنیتی که عمدتاً به چنین فناوریهایی متکی هستند، در معرض خطر بیشتری قرار دارند.
بر اساس این مطالعه در مورد نقض دادهها، ۱۲۹۱ نقض داده تا سپتامبر ۲۰۲۱ وجود داشته است که در مقایسه با نقض دادهها در سال ۲۰۲۰ که در مجموع ۱۱۰۸ مورد بوده است، افزایش ۱۷ درصدی را نشان میدهد.
بر اساس این پژوهش، ۲۸۱ میلیون قربانی به خطر افتادن دادهها در ۹ ماه اول سال ۲۰۲۱ کشف شدند که افزایش شدیدی را نشان میدهد.