خطرات امنیتی هوش مصنوعی
نوآوریهای هوش مصنوعی و امنیت سایبری یک جنبه منفی دارد؛ مهاجمان سایبری از همان فناوری استفاده میکنند و تکنیکهای خود را ارتقا میدهند. برخی از این خطرات در حال ظهور عبارتند از:
فیشینگ: ابزار هوش مصنوعی ChatGPT و ابزارهای زبانی مشابه به مهاجمان کمک میکند تا کلاهبرداریهای فیشینگ واقعیتر و متقاعدکنندهتر را نسبت به گذشته بنویسند. هکرها ممکن است هوش مصنوعی را برای شناسایی اهداف بالقوه آموزش دهند و از مجموعه دادههای شرکت و حتی اطلاعات ارائه شده در رسانههای اجتماعی استفاده کنند.
یادگیری ماشینی متخاصم: هکرها تلاش میکنند تا نقاط ضعف الگوریتمهای هوش مصنوعی را پیدا و سپس رفتار الگوریتم را به نفع خود مختل کنند. بهعنوان مثال، آژانس امنیت سایبری و امنیت زیرساخت آمریکا (CISA) توضیح میدهد که هکرها میتوانند دادههای آموزشی را دستکاری کنند، مدلهای پیشبینیکننده را تنظیم و دادهها را سرقت کنند و موارد دیگر.
دیپ فیک: ترکیبی از «یادگیری عمیق» و «جعلی». دیپ فیک محتوای رسانهای بسیار واقعگرایانهای را توصیف میکند که کاملاً با هوش مصنوعی ایجاد شدهاست. دیپفیکها به حجم عظیمی از دادهها در مورد محتوایی که ایجاد میکنند نیاز دارند. برای مثال، اگر تصویری مشابه یک فرد ایجاد شود، مجموعه داده به عکسها و ویدئوهای باکیفیت آن شخص نیاز دارد. اگر نمونههایی از نوشتن و صحبتکردن یک فرد ارائه شود، هوش مصنوعی حتی میتواند الگوهای گفتار و زبان را تقلید کند.
آیا هوش مصنوعی جایگزین مشاغل امنیت سایبری خواهد شد؟
کارمندان برای هدایت مسیرهای یادگیری هوش مصنوعی، تأیید تجزیه و تحلیل دادهها و محافظت از نرمافزارها، شبکهها و مجموعه دادهها به مهارتهای تخصصی نیاز دارند. این مهارتها تقاضاهای زیادی دارند. گزارش رسمی 2023 در مورد مشاغل امنیت سایبری جهانی، 3.5میلیون شغل خالی در صنعت را تا سال 2025 پیشبینی کرده است. طبق گزارش Cybersecurity Ventures، انتظار میرود هزینه جرائم سایبری تا سال 2025 به 10.5تریلیون دلار برسد. 7 جرم سایبری تقریباً هر صنعت را تحتتأثیر قرار میدهد، بنابراین متخصصان رایانه و فناوری اطلاعات که به هوش مصنوعی تسلط دارند میتوانند بدون توجه به مسیر شغلی مورد علاقهشان برای پیشرفت تلاش کنند.