ترکیه و چالش هوش مصنوعی – امنیت سایبری| مسمومیتِ داده‌ها- بخش سوم

به گزارش گروه بین الملل خبرگزاری تسنیم، پژوهشگران امنیت سایبری ترکیه، شناسایی تازه‌ترین تهدیدات مبتنی بر هوش مصنوعی (AI) و دنیای سایبری را به عنوان بخشی از معماری امنیت ملی می‌دانند.

آنان معتقدند که به چالش کشیدن مفاهیمی مانند امنیت ملی و باقی ملی در حوزه هوش مصنوعی امنیت سایبری، ممکن است به مراتب آسان‌تر از حوزه‌های امنیتی مرسوم و مرتبط با قدرت سخت باشد.

در دو بخش پیشین این مطلب، با دغدغه‌های پژوهشگران ترکیه در این زمینه آشنا شدیم و به این اشاره شد که آنکارا، تحقیق و فعالیت‌های نهادمند و منظم در این حوزه را جدی گرفته و به دنبال آن است که جایگاه و رده خود را از گروه سوم لیگ جهانی هوش مصنوعی، خود را به گروه دوم ارتقا دهد.

درسی از تجارب دیگران

پژوهشگران امنیت سایبری ترکیه برای رسیدن به ارزیابی روشنی از اهمیت این حوزه، سراغ مرور تجارب آمریکا و اروپا رفته‌اند. آنان به این نتیجه رسیده‌اند که بر اساس گزارش‌های معتبر «موسسه ملی استانداردها و فناوری آمریکا» (NIST) مفاهیمی همچون مسمومیتِ داده‌ها، دستکاری منابع ورودی، استخراج مدل، استخراج عضویت، مهندسی معکوس و نقض حریم خصوصی، تنها لایه‌های اولیه فریب و تهدید را تشکیل می دهند.

این خطرات به عنوان اقدامات عمدی «دشمنانِ با انگیزه» تعریف می‌شوند و می‌توانند عواقب جدی داشته باشند. این خطرات، به ویژه در زمینه‌هایی مانند احراز هویت، تشخیص ناهنجاری، فیلتر کردن محتوا، پشتیبانی تصمیم‌گیری مستقل و نظارت بر زیرساخت‌های حیاتی، دردسرساز هستند.

در جریان حملات خصمانه به سیستم‌های هوش مصنوعی، بارها سیستم‌های پشتیبانی تصمیم‌گیری در مؤسسات عمومی و زیرساخت‌های حیاتی گمراه شده‌اند و مهاجمین توانسته‌اند محیط داده‌ای را مسموم و مختل کنند و با شناسایی رفتارهای مدل هوش مصنوعی، امکانات و ظرفیت‌های نشت اطلاعات را به آسانی شناسایی کنند.


شناسایی انواع تهدید

بر اساس بررسی‌های پژوهشگران ترکیه در حوزه تهدیدات سایبری، می‌توان قائل به نوعی از دسته بندی بود که هدف و مابه ازای تهدید را به شکل ملموس نشان می‌دهد.

بر این اساس: مهمترین روش‌های تهدید را می‌توان به این شکل دسته بندی کرد: 
تهدیدات فیشینگ مبتنی بر هوش مصنوعی.
ربودن حساب از طریق پر کردن اعتبارنامه.
 تولید و انتشار محتوای جعلی عمیق.
 تولید و انتشار باج‌افزار.
 تلاش برای کنترل اتوماسیون.
 تلاش برای کنترل خدمات و زیرساخت‌های حیاتی.
 ربودن حساب از طریق پر کردن اعتبارنامه.
حملات مبتنی بر بات‌نت (آلوده کردن پنهانی گروهی از رایانه‌ها به یک نرم‌افزار و کنترل از راه دور آنها توسط یک هکر).
تهدیدات یکپارچگی مدل و امنیت داده‌ها.
سرقت مدل یا الگو.
تهدیدات یکپارچگی مدل و امنیت داده‌ها.
تزریق درخواست.
تهدیدات نفوذ در فرآیند تصمیم‌گیری سازمانی.
افشای اطلاعات حساس.
 دستکاری سیستم‌های تشخیص ناهنجاری.


در مجموع و در یک ارزیابی کلی، خطرات و تهدیدات این حوزه را می توان به پنج خوشه اصلی تقسیم کرد: اقناع و دستکاری هویت، اتوماسیون و مقیاس‌بندی، یکپارچگی مدل و امنیت داده‌ها، زیرساخت‌های حیاتی و تداوم خدمات، نفوذ در فرآیندهای تصمیم‌گیری شرکتی.

در سال 2025 میلادی در استفاده از هوش مصنوعی مشهور چت.جی.پی.تی، موارد بسیاری تلاش‌های سوء استفاده گزارش شده که غالباً شامل تولید رزومه‌های جعلی، به دست آوردن اطلاعات هویتی کارمندان مهم آمریکا برای کپی و جعل اطلاعات و استفاده از دسترسی‌های آنان، خودکارسازی درخواست‌های شغلی و دستکاری فرآیندهای کار از راه دور، است.

در این عرصه پر از کلاهبرداری، مجرمین نه تنها پروفایل‌های جعلی ایجاد کرده‌اند، بلکه از پشتیبانی مدل برای روش‌ها و ابزارهایی برای تسهیل دسترسی از راه دور به لپ‌تاپ‌های کارمندان همان شرکت نیز استفاده کرده‌اند.

آنان برای رسیدن به اهداف خود، از هوش مصنوعی مولد برای ایجاد متن ایمیل‌های قانع‌کننده، پیام‌های صوتی/تصویری، پروفایل‌های جعلی رسانه‌های اجتماعی و وب‌سایت‌های کلاهبرداری استفاده کرده‌اند.

بر این اساس، هوش مصنوعی با کاهش خطاهای زبانی و شخصی‌سازی محتوا، اعتبار طرح‌های کلاهبرداری را افزایش می‌دهد و به مجرمان اجازه می‌دهد تا در مدت زمان کوتاه‌تری به مخاطبان گسترده‌تری دسترسی پیدا کنند.

تحول اساسی در اینجا این است که حمله دیگر صرفاً مبتنی بر فریب نیست، بلکه مبتنی بر ترغیب و متقاعدسازی است. به لطف هوش مصنوعی مولد، حملات بهتر طراحی می‌شوند، هدفمندترند، زمان‌بندی دقیق‌تری دارند و به راحتی موفق‌ می شوند.

همچنین ارزیابی‌های آژانس امنیت سایبری اتحادیه اروپا (ENISA) نشان می‌دهد که حملات مهندسی اجتماعی در بخش مالی منجر به سرقت داده‌های شخصی/شرکتی، کلاهبرداری و جرایم مالی در مقیاس بزرگ می‌شود و نشان می‌دهد که این تهدید فراتر از یک مشکل کاربر شخصی بوده و به سطح ریسک شرکتی رسیده است.

در حملات فیشینگ هوشمند، رفتار هدف از طریق رسانه‌های اجتماعی و ایمیل‌ها تجزیه و تحلیل می‌شود تا پیام‌های جعلی شخصی‌سازی شده تولید شود. حملات فریب عمیق شامل تقلید چهره یا صدای یک فرد با هوش مصنوعی است و از چنین منطقی پیروی می‌کند: «با هوش مصنوعی، هوش مصنوعی را فریب بده». 

سوء استفاده مهاجمین و مجرمین از هوش مصنوعی، می‌تواند به راحتی، مغز تصمیم‌گیری یک شرکت، نهاد یا سازمان مهم و حساس را در اختیار بگیرد و در تصمیمات آن، دخالت کند. در این عملیات، فقط پای هک، خاموش کردن سیستم‌ها یا سرقت داده‌ها در میان نیست؛ بلکه مهاجم به دنبال مجبور کردن سازمان به تصمیم‌گیری‌های اشتباه و اولویت‌بندی‌های اشتباه است.

در نتیجه در دو حوزه، تهدید بزرگ شکل می‌گیرد: الف) بی‌اعتنایی به نظارت مداوم انسانی و تسلیم شدن در برابر روح ماشینی و خودکارِ هوش مصنوعی. ب) اعتماد بیش از حد به کل خروجی‌ها و تصمیمات نهایی هوش مصنوعی.

پژوهشگران امنیتی ترکیه می‌گویند، با وابستگی روزافزون خدمات عمومی، زیرساخت‌های حیاتی و فرآیندهای تصمیم‌گیری شرکت‌ها به سیستم‌های هوش مصنوعی، خطر آسیب‌پذیری‌های عملیاتی و استراتژیک، افزایش می‌یابد.

بنابراین، اولویت سیاست‌گذاری این است که به وضوح تعریف شود که سیستم‌های استفاده‌کننده از هوش مصنوعی با کدام داده‌ها، در چه محدوده اختیاراتی و با چه وابستگی‌های خارجی کار می‌کنند و بر این اساس، سازوکارهای امنیتی، حسابرسی و تأیید انسانی مناسبی ایجاد شود. موفقیت زمانی حاصل می‌شود که به جای پذیرش سریع هوش مصنوعی و دادن اختیارات نهادی به او، مفاهیمی مانند مدیریت ایمن، حسابرسی و پاسخگویی، همچنان در اولویت باشند. 

تجارب بانک‌ها، نهادها، شرکت‌ها و کشورهای شکست خورده در این زمینه می‌گوید: وقتی که در یک سیستم مبتنی بر هوش مصنوعی، کنترل و اختیارات بیش از حدی به یک «مدل بزرگ زبانی» (LLM) بدهید و به عنوان مثال، در فرآیندهای تصمیم‌گیری و برنامه‌های حیاتی، او را به عنوان مسئول خودکارسازی تراکنش‌های مالی در نظر بگیرید، اقدام خطرناکی انجام داده‌اید. چرا که ممکن است این مدل زبانی، بدون کنترل‌های کافی، تصمیمات پرخطری بگیرد. بنابراین محدود کردن قابلیت‌های تصمیم‌گیری مدل و گنجاندن نظارت انسانی در فرآیندهای حیاتی برای کاهش این ریسک مهم است.

از دیدگاه حاکمیتی، خطر این است که مشخص نیست تفویض اختیار از کجا شروع و پایان می‌یابد. در چنین حالتی، یک خطا یا سوء استفاده فراتر از یک نقص فنی صرف است و نشان‌دهنده یک شکست در زنجیره کنترل است. بنابراین، خطر مجوز بیش از حد باید در داخل سازمان از طریق مجوز مبتنی بر نقش، تأیید انسانی، مکانیسم‌های توقف اضطراری و ثبت اجباری تراکنش‌ها مدیریت شود.
ادامه دارد....

انتهای پیام/