ترکیه و چالش هوش مصنوعی ـ امنیت سایبری| 6 مؤلفه محیطِ امنیتی ـ بخش دوم

به گزارش گروه بین‌الملل خبرگزاری تسنیم، در بخش نخست این مطلب، به دغدغه‌های مقامات سیاسی و امنیتی ترکیه درباره تأثیرگذاری هوش مصنوعی بر امنیت سایبری و بقای ملی، اشاره شد.

همچنان که ذکر شد، ترکیه در چند سال اخیر در حوزه هوش مصنوعی، علاوه بر تحقیقات و سرمایه‌گذاری، دست به نهادسازی قابل‌توجهی زده است، به‌گونه‌ای که فعالیت‌های چند نهاد برجسته مانند «انجمن سیاست هوش مصنوعی» (AIPA) و «ابتکار هوش مصنوعی ترکیه» (TRAI) توانسته‌اند در تعیین نقشه راه ترکیه در این حوزه نقش مهمی ایفا کنند،

در این میان، سرویس اطلاعاتی میت ترکیه نیز به‌شکل جدی به‌دنبال تعریف و تبیین معماری امنیتی این حوزه است.

از دید کارشناسان زبده در این حوزه، با انقلاب صنعتی چهارم، پیشرفت‌های چشمگیری در دیجیتالی شدن، اتوماسیون و سیستم‌های شبکه‌ای حاصل شده است، با این حال، این تحولات سطح حملات سایبری را نیز گسترش داده و منجر به افزایش حملات مبتنی بر هوش مصنوعی شده است.

تغییر محیط امنیتی

در شرایطی که هوش مصنوعی (AI) به‌دنبال تغییر کل فضای سایبری در زمینه‌های مختلف است، ما با این واقعیت مواجه شده‌ایم که «محیط امنیتی» در همه ابعاد متحول شده است و تهدیدها و فرصت‌ها نیاز به بازنگری دارند.

برای درک روشن ویژگی‌ها و مکانیسم‌های این محیط، لازم است 6 مؤلفه مهم را مرور کنیم:

اتوماسیون و مقیاس‌پذیری: یکی از مهم‌ترین تأثیرات هوش مصنوعی، بالا بردن میزان سرعت و شتاب در فرآیندهای عملیات و حمله است. اکنون امکاناتی در اختیار مهاجم قرار گرفته است که برای انتخاب هدف، اسکن و جست‌وجوی منابعِ باز، تولید محتوای جعلی و برنامه‌ریزی حمله، می‌تواند در زمانی به‌مراتب کوتاه‌تر از قبل، به هدف برسد، این ویژگی باعث می‌شود انجام حملات با هزینه کمتر و مقیاس بزرگتر، آسان شود، در چنین فضایی، نه‌تنها بازیگران قدرتمند، بلکه بازیگران با ظرفیت محدود نیز می‌توانند نقش مؤثری ایفا کنند و از امکان تهدید مکرر، حمله مکرر و عملیات سریع برخوردار باشند.

تأثیرگذاری بر فرآیندهای تصمیم‌گیری: هوش مصنوعی در ابتدا بیشتر به‌عنوان یک ابزار پشتیبانی مورد استفاده قرار می‌گرفت، ولی امروزه به لایه‌ای تبدیل شده است که مستقیماً بر فرآیندهای تصمیم‌گیری در بسیاری از سازمان‌ها تأثیر می‌گذارد. خروجی‌های هوش مصنوعی در حوزه‌هایی مانند اولویت‌بندی تهدید، تحلیل حادثه و ارزیابی ریسک، اهمیت فزاینده‌ای پیدا می‌کنند، در این فضا، می‌توان به‌راحتی مرز بین تصمیم‌گیر و پشتیبانِ تصمیم‌گیر را مختل کرد، بنابراین، با این حال، اگر قوانین تأیید، پاسخ‌گویی و نظارت انسانی روشن نشود، سرعت و سهولت فنی، منجر به ضعف و شکاف مدیریتی خواهد شد.

گسترش سطح حمله: هوش مصنوعی در حال گسترش حوزه‌هایی است که در امنیت سایبری به حفاظت نیاز دارند. اکنون، نه‌تنها شبکه‌ها، دستگاه‌ها و برنامه‌ها، بلکه مجموعه داده‌ها، مدل‌ها، فرآیندهای آموزشی، سیستم‌ها، افزونه‌ها، پایگاه‌های داده‌برداری و سرویس‌های ابری نیز در حوزه ریسک قرار می‌گیرند، بنابراین، ارزیابی امنیتی باید جامع‌تر باشد. مهم است بدانیم چه داده‌هایی وارد مدل می‌شوند، مدل با کدام سیستم‌ها ادغام می‌شود و خروجی تولیدشده در کجا استفاده می‌شود، در این موقعیت، امنیت چیزی فراتر از موضوع کنترل دسترسی است و نیاز به مدیریت داده‌ها، مدل و زنجیره برنامه با هم دارد.

تغییر تعادل بین مهاجم و مدافع: در حوزه سایبری، همیشه شاهد یک عدم‌تقارن جدی بین مهاجم و مدافع هستیم. هوش مصنوعی این تفاوت و عدم‌تقارن را به این شکل، آشکارتر می‌کند: مهاجمان می‌توانند با هزینه کم محتوا تولید کنند، دستکاری‌های هدفمند انجام دهند و حملات خود را به‌سرعت تکرار کنند، این در حالی است که در سمت مدافع، هزینه‌ها سنگین است، استفاده ایمن از سیستم‌های هوش مصنوعی نیاز به آزمایش، ثبت سوابق، حسابرسی، تأیید انسانی و رعایت قوانین دارد، بنابراین، در حالی که مهاجم سریع‌تر حرکت می‌کند، مدافع باید با احتیاط بیشتری عمل کند.

تعامل اکوسیستم اطلاعات و فضای سایبری: هوش مصنوعی، امنیت سایبری را به جایی فراتر از حوزه فنی می‌برد، به‌نحوی که، دستکاری اطلاعات، رسانه‌های مصنوعی، تبلیغات خودکار و فعالیت‌های گمراه‌کننده، باید به‌عنوان بخشی از محیط ریسک سایبری در نظر گرفته شوند، در این جنگ‌ها، تأثیر یک حمله محدود به متوقف کردن سیستم‌ها نیست؛ بلکه می‌تواند بر اعتماد نهادی، ارتباطات بحرانی و ادراک عمومی نیز تأثیر بگذارد، این امر به‌ویژه برای نهادهای عمومی، فرآیندهای انتخاباتی، امنیت مالی و خدمات حیاتی اهمیت دارد، چرا که محتوای جعلی تولیدشده توسط هوش مصنوعی می‌تواند اطلاعات نادرست را منتشر کند، خود را به‌جای مرجع نهادی جا بزند و به اعتماد عمومی آسیب برساند، بنابراین، ظرفیت تأیید اطلاعات به عنصر مکمل امنیت سایبری تبدیل شده است.

وابستگی و تأثیر استراتژیک: یکی دیگر از تأثیرات قابل‌توجه هوش مصنوعی، افزایش وابستگی آن به فناوری است. سیستم‌های هوش مصنوعی به اجزای چندلایه‌ای مانند داده‌ها، مدل‌ها، کتابخانه‌های نرم‌افزاری، زیرساخت‌های ابری، قدرت پردازش و ارائه‌دهندگان خدمات خارجی متکی هستند. هنگامی که این اجزا تنها نزد تعداد محدودی از بازیگران متمرکز می‌شوند، خطر امنیتی صرفاً در سطح فنی باقی نمی‌ماند، این وابستگی‌ها پیامدهای استراتژیکی دارند، به‌ویژه برای زیرساخت‌های حیاتی و سیستم‌های عمومی. پردازش داده‌ها در فضای ابری خارجی، دسترسی محدود به گزارش‌های سیستم یا داشتن فرآیندهای به‌روزرسانی که توسط بازیگران خارجی تعیین می‌شوند، می‌توانند کنترل شرکت را تضعیف کنند، بنابراین،
در عصر هوش مصنوعی، امنیت نیز موضوع حاکمیت دیجیتال و تداوم در مواقع بحران است. این تحول نشان می‌دهد که دیگر نمی‌توان صرفاً با ابزارهای دفاعی فنی به امنیت سایبری پرداخت، رویکردی گسترده‌تر، منظم‌تر و مبتنی بر حاکمیت مورد نیاز است.


از دیدگاه امنیت سایبری، هوش مصنوعی را می‌توان به سه دسته اصلی تقسیم کرد:
الف) استفاده خصمانه از هوش مصنوعی.
ب) استفاده تهاجمی از هوش مصنوعی.
ج) استفاده دفاعی از هوش مصنوعی.

تأثیر استراتژیک استفاده از هوش مصنوعی تهاجمی نه‌تنها از بهبود کیفیت حمله، بلکه از کاهش هزینه‌های حمله و افزایش مقیاس‌پذیری ناشی می‌شود، در نتیجه، استفاده از هوش مصنوعی تهاجمی، محیط تهدید سایبری را متحول کرده است.

یکی از بارزترین اشکال این تهدید، مهندسی اجتماعی با کمک هوش مصنوعی است. تا سال 2025، حملات فیشینگ با کمک هوش مصنوعی بخش بزرگی از حملات مهندسی اجتماعی جهانی را تشکیل می‌دهند.

از «مدل‌های بزرگ زبانی» (LLM) برای تولید ای‌میل‌های متقاعدکننده‌تر، سناریوهای فیشینگ صوتی و محتوای جعلی استفاده می‌شود.

پیش‌بینی می‌شود که استفاده از این مدل‌های مولد، مانند ابزارهای شبیه‌سازی صدا و تعویض چهره، در فیشینگ، فیشینگ صوتی و حملات جعل هویت به‌صورت تصاعدی افزایش یابد. گمراه کردن نهاد تصمیم‌ساز، کاهش عملکرد سازمان و استخراج داده‌های پنهان یا ربودن مدل، از مهمترین اهداف عملیاتی مهاجمان در این عرصه است.

ادامه دارد... .

انتهای پیام/+