خبرگزاری مهر، گروه فناوریهای نوین: طی سالهای گذشته هوش مصنوعی مولد (AI) بهعنوان ابزاری قدرتمند و مؤثر در زمینههای مختلف، از جمله امنیت سایبری ظهور کرده است. این فناوری که بر اساس الگوریتمهای یادگیری عمیق عمل میکند تواناهایی متعدد مانند تولید محتوای واقعی و غیرواقعی بهصورت متن، تصویر و ویدئو دارد.
درحالیکه هوش مصنوعی مولد نویدبخش افزایش امنیت سایبری است، قادر به ایجاد مخاطرات جدی برای این حوزه نیز هست. تکنولوژی و پیشرفتهایش باعث قدرتمندتر شدن مجرمان سایبری شده و خدماتی را به آنها ارائه میدهد. یکی از این چالشها استفاده از مدلهای زبانی مانند «ChatGPT» برای نوشتن کدهای مخرب است.
۷۶ درصد از شرکتها بر اساس آمار فوربس و تحقیقات شرکت بلکبری، هوش مصنوعی و یادگیری ماشینی را در اولویتهای بودجه مختص فناوری اطلاعات خود قرار داده اند تا بتوانند حجم زیادی از دادهها را برای شناسایی و کاهش تهدیدات سایبری تجزیه تحلیل کنند؛ در نتیجه هوش مصنوعی هم برای مجرمین سایبری و هم مبارزه با جرایم سایبری ابزاری ضروری است.
دولتها و شرکتها برای مدیریت بهتر آینده بهتر است مخاطرات و کاربردهای هوش مصنوعی را در امنیت سایبری شناخته و راههایی برای مقابله با چالشهای آن در نظر بگیرند. در ادامه به بخشی از فرصتها و مخاطرات هوش مصنوعی برای امنیت سایبری اشاره میکنیم.
کاربردهای هوش مصنوعی مولد در امنیت سایبری
*شناسایی و تجزیه تحلیل بدافزار
هوش مصنوعی مولد قادر است با تجزیهوتحلیل نمونههایی از بدافزارها، روش و الگوریتم آنها را دریافته و با ارائه آن به متخصصان و تحلیلگران امنیتی بسیار مؤثر عمل کند. متخصصان و تحلیلگران امنیتی با استفاده از الگوهای تحلیل شده توسط هوش مصنوعی مولد میتوانند بدافزارها را بهتر درک کرده و اقدامات دفاعی متقابل و مؤثر و روشهای دفاعی پیشگیرانه جدیدی را بر اساس الگوی عملکردی از بدافزارها که هوش مصنوعی به آنها ارائه کرده تدوین کنند. اکثر تصمیمگیرندگان حوزه فناوری اطلاعات قصد دارند روی امنیت سایبری مبتنی بر هوش مصنوعی سرمایهگذاری کنند.
*طراحی نمونههای متخاصم
یکی دیگر از تواناییهای هوش مصنوعی طراحی نمونههای بدافزارهای متخاصم است که به طور اختصاصی برای فریب هوش مصنوعی طراحی شدهاند. با تولید چنین نمونههایی متخصصان میتوانند تدابیر امنیتی لازم را برای محافظت از مدلها و سیستمهای هوش مصنوعی در برابر حملات خصمانه ایجاد کنند. این تدابیر میتواند منجر به تقویت دفاعی و استحکام هوش مصنوعی در برابر حملات پیچیده متخاصمان و مجرمین سایبری شود.
*شکستن رمز عبور و احراز هویت
هوش مصنوعی میتواند برای سخت کردن تکنیکهای شستن رمز عبور مجرمان سایبری با تحلیل و بررسی رفتار کاربران، ترکیبات رمز عبور احتمالی را در نظر گرفته و مدلهای جدید رمز عبور که شکستن آنها سختتر باشد را ایجاد کرده و سیستمهای احراز هویت قویتری طراحی کند. این قابلیتهای هوش مصنوعی میتواند به افزایش امنیت سایبری کمک کند.
*ارزیابی آسیبپذیری و تشخیص نفوذ شبکه
هوش مصنوعی میتواند آسیبپذیریها را در سیستمهای نرمافزاری شناسایی کرده و توصیههایی برای برطرفکردن آن دهد و از این نظر میتواند از آنتیویروسها قدرتمندتر عمل کند؛ زیرا زمان و تلاش موردنیاز برای شناسایی و رفع نقصهای امنیتی را کاهش میدهد و با عملکرد بهینه خود نسبت به ابزارهای قدیمی، وضعیت امنیتی کلی سیستمها و برنامهها را بهبود میبخشد. از طرف دیگر هوش مصنوعی رفتارهای مشکوکی که نشاندهنده نفوذ در شبکه است را تشخیص داده و به آنها پاسخ مناسب داده و از زیر ساختهای حیاتی محافظت کنند. بهعبارتدیگر هوش مصنوعی امکان نظارت مستمر خودکار را فراهم میکند که برای امنیت سایبری مدرن امری ضروری است.
خطرات و آسیبهای هوش مصنوعی برای امنیت سایبری
* فیشینگ پیشرفته و حملات مهندسی اجتماعی
یکی از خطرات هوش مصنوعی مولد زبانی، توانایی ایجاد ایمیلهای فیشینگ، پیامها یا تماسهای تلفنی بسیار قانعکننده است. این یک زنگ خطر بزرگ برای افراد سازمان و حتی دولتهاست زیرا مهاجمان از طریق فیشینگ میتوانند با فریب کاربران دست به اقدامات مخرب و فاش کردن اطلاعات حساس بزنند. پیچیدگی هوش مصنوعی مولد اثربخشی مهندسی اجتماعی را تقویت کرده و مقاومت در برابر آنها را سختتر میکند. تربیت جامعهای با سواد سایبری و رسانهای بالا و آگاه به اصول مهندسی اجتماعی برای جلوگیری از فریبخوردن از ابزار فناورانه مدرن، یکی از نیازهای بشر امروز است.
*مطالب و اطلاعات جعلی عمیق
هوش مصنوعی مولد میتواند محتوای جعلی عمیق (deep fake) بسیار واقعی با فرمتهای تصویر، ویدئو و صدا تولید کند. سوءاستفادهکنندگان با استفاده از این قابلیت هوش مصنوعی میتوانند با انتشار اطلاعات نادرست افکار عمومی را دستکاری کرده و حتی هویت افراد را جعل کنند. دیپفیک میتواند عواقبی شدید؛ مانند آسیبزدن به آبرو، سو استفادههای سیاسی داشته باشد و در نهایت به اعتماد عمومی خدشهای جبرانناپذیر وارد کند.
*دورزدن سیستمهای امنیتی سنتی
مهاجمان میتوانند با طراحی بدافزارهایی با سیستم پیچیده، ابزارهای امنیتی سنتی مانند آنتیویروسها را دور بزنند و با طراحی و تولید بدافزارهایی که دائماً درحالتوسعه و تکاملاند و از شناسایی طفره میروند، حملاتی پیچیده انجام دهند.
*پیامدهای اخلاقی و حقوقی
استفاده از هوش مصنوعی مولد در امنیت سایبری، باعث نگرانیهایی در مورد نقض حریم خصوصی افراد و تصمیمگیریهای مغرضانه این ابزار شده است. بهعبارتدیگر هوش مصنوعی مولد قادر است امنیت کاربران را در فضای سایبری تهدید کند.
لازم است تا چارچوبهای قانونی پیرامون مسئولیتپذیری این ابزار جدید فناوری ایجاد شده و همزمان با پیشرفتهای هوش مصنوعی بهروز شوند تا با ایجاد هنجارها و ضوابط ضروری، تعهدات آن را افزایش دهند.
هوش مصنوعی و آینده امنیت سایبری
«امیرعباس رکنی»، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره کم و کیف تأثیر هوش مصنوعی بر امنیت سایبری به خبرنگار مهر گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط کنونی حاکم برجهان فناوری، تأثیرات قابلتوجهی بر حوزه امنیت سایبری گذاشته است و انتظار میرود این فرایند در آینده جدیتر و مؤثرتر به پیش برود. بهطورکلی، باید توجه داشت که فناوری هوش مصنوعی همانند یک سکه دو رو دارد و پیشرفتها و توسعههای آن میتواند منجر به شکلگیری مجموعهای از فرصتها و تهدیدهایی برای حوزه امنیت سایبری بشود.
وی افزود: تا همین جای کار هم باید اذعان داشت که هوش مصنوعی بسیاری از مفاهیم و فرایندها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یک پدیده تحولآفرین بوده است. ما در جهان فناوری کمتر پدیدهای را میتوانیم همچون هوش مصنوعی پیدا کنیم که در مدتزمان کوتاهی بتواند یک پارادایم مختص به خود خلق کرده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد کند. هوش مصنوعی دقیقاً همین اقدام را در سالهای اخیر انجام داده است. هنگامی که ما در خصوص امنیت سایبری میخواهیم صحبت کنیم، باید توجه داشته باشیم که برخی مؤلفهها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب میکند و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یک ملازمهای در اینجا وجود دارد. در حالی که میبینیم هوش مصنوعی با خودکار سازی بسیاری از فرایندها، نیاز به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل میرساند. بر همین اساس است که می گویم هوش مصنوعی منجر به ایجاد یک تغییر پارادایم در جهان فناوری شده است.
وی در ادامه به مرور مهمترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و افزود: اگر بخواهیم مروری بر مهمترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد میتوانیم اشاره کنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیبپذیری به صورت بهبودیافته و سوم عملیات امنیتی خودکار.
این کارشناس امنیت فضای مجازی توضیح داد: هوش مصنوعی این پتانسیل را دارد که بهطور قابلتوجهی تواناییهای تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتمهای یادگیری ماشینی میتوانند حجم وسیعی از دادهها، از جمله ترافیک شبکه، رفتار کاربر و گزارشهای سیستم را تجزیه و تحلیل کنند تا الگوها و ناهنجاریهایی را که ممکن است نشاندهنده حملات سایبری باشد، شناسایی کنند. سیستمهای مجهز به هوش مصنوعی میتوانند از دادههای تاریخی بیاموزند و با تهدیدات جدید سازگار شوند و امکان تشخیص سریعتر و دقیقتر حوادث امنیتی را فراهم کنند. علاوه بر این، هوش مصنوعی میتواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و کاهش تهدیدها، پاسخ به حادثه را خودکار کند.
وی درباره موضوع ارزیابی آسیبپذیری به صورت بهبودیافته به کمک هوش مصنوعی گفت: هوش مصنوعی میتواند برای شناسایی مؤثرتر آسیبپذیریها در سیستمها و شبکههای نرمافزاری استفاده شود. الگوریتمهای هوش مصنوعی میتوانند کد، پیکربندیهای سیستم و شبکه را برای شناسایی نقاط ضعف احتمالی و شکافهای امنیتی تجزیه و تحلیل کنند. این میتواند به سازمانها کمک کند تا وضعیت امنیتی خود را تقویت کنند.
کرمی ادامه داد: هوش مصنوعی میتواند عملیات امنیتی مختلف را خودکار کند، بار کاری تحلیلگران انسانی را کاهش داده و زمان پاسخگویی سریعتر را ممکن بسازد. برای مثال، هوش مصنوعی میتواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسکن آسیبپذیری را خودکار کند. این نه تنها کارایی عملیاتی را بهبود میبخشد، بلکه به تحلیلگران انسانی اجازه میدهد تا بر چالشهای امنیتی پیچیدهتر و استراتژیک تر تمرکز کنند.
پژوهشگر فضای مجازی در خصوص خطراتی که هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت که هوش مصنوعی میتواند به شکل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر بهکارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزایندهای در مورد استفاده بالقوه از هوش مصنوعی توسط دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تکنیکهای هوش مصنوعی متخاصم را میتوان برای فرار از تمهیدات امنیتی سنتی، مانند تولید بدافزار چندشکلی یا راهاندازی حملات هدفمند مهندسی اجتماعی، به کار برد. برای مقابله با این تهدیدات، دفاعهای مبتنی بر هوش مصنوعی، از جمله سیستمهای تشخیص نفوذ فعال، فناوریهای فریب و مکانیسمهای احراز هویت مبتنی بر هوش مصنوعی درحالتوسعه هستند.»
وی ضمن اشاره به پیامدهای اخلاقی و ملاحظات حریم خصوصی در این حوزه توضیح داد: پیامدهای اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتکا به هوش مصنوعی در امنیت سایبری نگرانیهای اخلاقی و چالشهای حریم خصوصی را افزایش میدهد. سیستمهای مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل نیاز به دسترسی به حجم زیادی از دادهها دارند. اطمینان از حفظ حریم خصوصی و امنیت این دادهها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیمگیریهای مرتبط با امنیت، مانند اقدامات پاسخ خودکار به حادثه یا اشتراکگذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.
وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. برخی از الگوریتمهای هوش مصنوعی، بهویژه مدلهای یادگیری عمیق، بهعنوان جعبههای سیاه عمل میکنند و درک و توضیح فرآیند تصمیمگیری آنها را به چالش میکشند. این عدم تفسیرپذیری میتواند مانع اعتماد و پذیرش سیستمهای هوش مصنوعی در سناریوهای تصمیمگیری امنیتی و حیاتی شود.
پژوهشگر پژوهشگاه فضای مجازی افزود: به طور کلی، باید بگویم که اتکای بیشازحد به هوش مصنوعی میتواند پاشنه آشیل امنیت سایبری باشد. در حالی که هوش مصنوعی میتواند امنیت سایبری را تا حد زیادی افزایش دهد، اتکای بیشازحد به آن بدون نظارت انسانی میتواند مخاطرهآمیز باشد. تخصص انسانی هنوز در درک زمینه تهدیدها، انطباق با تکنیکهای حمله در حال تکامل و تصمیمگیریهای حیاتی، ضروری است. به همین دلیل است که صاحبنظران این حوزه تأکید میکنند که برای استفاده از فرصتهای ارائه شده توسط هوش مصنوعی در امنیت سایبری و درعینحال کاهش خطرات، اتخاذ یک رویکرد کلنگرانه بسیار مهم است. این شامل ارزیابی منظم سیستمهای هوش مصنوعی برای شناسایی و کاهش سوگیریها و آسیبپذیریها، اطمینان از شفافیت و تفسیرپذیری مدلهای هوش مصنوعی، حفاظت از حریم خصوصی دادهها و حفظ تعادل بین هوش انسانی و قابلیتهای هوش مصنوعی است.
تنظیمگری هوش مصنوعی و امنیت سایبری
رکنی با اشاره به ابزارهای متعدد سیاستگذاران و قانونگذاران برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاستگذاران و قانونگذاران ابزارهای متعددی برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزارها میتوانند به ایجاد دستورالعملها، استانداردها و چارچوبهای قانونی کمک کنند که استقرار مسئولانه و ایمن هوش مصنوعی را ترویج میکنند. با نگاهی به تجربیات بسیاری از کشورهای پیشگام در حوزه هوش مصنوعی، میتوانیم چندین ابزار کلیدی را به منظور تنظیمگری هوش مصنوعی شناسایی کنیم.
وی در ادامه مهمترین ابزارهای یاد شده را چنین برشمرد:
«قانون و مقررات: قانونگذاران میتوانند قوانین و مقرراتی را ایجاد کنند که به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری میپردازد. این مقررات میتواند جنبههای مختلفی از جمله حفظ حریم خصوصی دادهها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین میکند که سیستمهای هوش مصنوعی بهگونهای توسعه یافته و مورد استفاده قرار میگیرند که از منافع افراد و سازمانها محافظت میکند.
بهروزرسانی و تکمیل قوانین ناظر بر حفاظت از دادهها و حریم خصوصی: قانونگذاران میتوانند قوانین حفاظت از دادهها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستمهای هوش مصنوعی بهروزرسانی و تقویت کنند. این قوانین میتوانند دستورالعملهایی را برای جمعآوری، ذخیرهسازی، پردازش و اشتراکگذاری دادهها ایجاد کنند و اطمینان حاصل کنند که سیستمهای هوش مصنوعی بر اساس حریم خصوصی و رضایت دادهها ساخته شدهاند.
برنامههای صدور گواهینامه: تنظیمکنندهها میتوانند برنامههای صدور گواهینامه یا چارچوبهای انطباق را برای سیستمهای هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامهها میتوانند استانداردها و الزامات امنیتی، حریم خصوصی و ملاحظات اخلاقی را تعیین کنند. با تأیید سیستمهای هوش مصنوعی که این استانداردها را برآورده میکنند، تنظیمکنندهها میتوانند اطمینان حاصل کنند که سازمانها شیوههای هوش مصنوعی مسئولانه را اتخاذ میکنند.
دستورالعملهای اخلاقی و کدهای رفتاری: تنظیمگران میتوانند با کارشناسان صنعت هوش مصنوعی همکاری کنند تا دستورالعملهای اخلاقی و کدهای رفتاری را برای توسعهدهندگان و کاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد کنند. این دستورالعملها میتوانند شیوههای هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را مشخص کنند. پیروی از چنین دستورالعملهایی میتواند به کاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی کمک کند.
مکانیزمهای حسابرسی و پاسخگویی: قانونگذاران میتوانند مکانیزمهای حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استانداردهای مرتبط با هوش مصنوعی ایجاد کنند. این مکانیسمها میتوانند شامل ارزیابیهای منظم، ممیزیهای شخص ثالث و الزامات گزارشدهی برای ارزیابی عملکردهای امنیتی و اخلاقی سیستمهای هوش مصنوعی مورد استفاده در امنیت سایبری باشند.»
وی در پایان تأکید کرد که تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نکتهای بسیار حائز اهمیت برای قانونگذاران است و گفت: با به کارگیری این ابزارها، آنها میتوانند محیطی ایجاد کنند که توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت کند و اعتماد به فناوریهای هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت کند.
کنفرانس امنیت سایبری
به گزارش مهر، سال گذشته در حاشیه کنفرانس سالانه امنیت سایبری سانفرانسیسکو (RSA)، شرکت فناوری اطلاعات (Zscaler) از هوش مصنوعی بهعنوان عاملی در افزایش ۴۷ درصدی حملات فیشینگ در سال ۲۰۲۲ یادکرد. کارشناسان، مدیران و مقامات دولتی نگراناند که این تازه آغاز راه است، زیرا مهاجمان میتوانند از هوش مصنوعی برای نوشتن نرمافزارهایی استفاده کنند که به روشهای جدید وارد شبکه سازمان شده و از طریق فرایندهایی که طبیعی به نظر میرسند، دادهها را بهصورت غیرقانونی به بیرون منتقل کنند.
کارشناسان در این کنفرانس همچنین تأکید داشتند که هوش مصنوعی به بالابردن امنیت سیستمهای سازمانها نیز کمک میکند. این فناوری با بررسی ناهنجاریها و جستجوی آسیبپذیریهای ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطهضعفها میشود.
چه اقشاری باید به فکر اقدامات جدی باشند؟
شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان کسبوکار، دولتها و سازمانهای مبارزه با جرایم سایبری بسیار مهم است. با گسترش استفاده از هوش مصنوعی و محبوبیت مدلهای زبانی مولد مانند «ChatGPT» بین مردم و چشماندازهایی مانند هوشمند کردن شهرها، مدیران باید پیامدهای اخلاقی، سایبری و اجتماعی راهحلهای مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالیکه هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان اندازه یا حتی بیشتر از آن مهم است که پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع کل جامعه از آن استفاده کنیم.
این خبر را در تهران اقتصادی دنبال کنید
.
منبع مهر