هشدار کارشناسان آمریکایی دربارهی افزایش خطر گروههای ستیزهجو با هوش مصنوعی
نهادهای اطلاعاتی آمریکا نسبت به استفاده گروههای افراطی از هوش مصنوعی برای جذب نیرو، تولید دیپفیک و حملات سایبری هشدار میدهند.
کارشناسان امنیتی و نهادهای اطلاعاتی آمریکا هشدار دادهاند که گسترش هوش مصنوعی ارزان و نیرومند میتواند ابزاری قدرتمند برای سازمانهای افراطی باشد. این فناوری میتواند برای جذب نیرو، تولید تصاویر دیپفیک واقعگرانه و بهبود حملات سایبری مورد استفاده قرار گیرد. نگرانی عمدهتر، احتمال استفاده گروههای ستیزهجو از هوش مصنوعی برای جبران کمبود تخصص فنی و حتی کمک به تولید سلاحهای شیمیایی یا بیولوژیکی است.
خبرگزاری آسوشیتدپرس در روز دوشنبه ۱۵ دسامبر (۲۴ آذر) در گزارشی نوشت که با وجود شتاب جهانی در بهرهگیری از هوش مصنوعی، گروههای ستیزهجو نیز در حال آزمایش این فناوری هستند.
داعش و بهرهبرداری از هوش مصنوعی
به گفتهی کارشناسان امنیت ملی و نهادهای اطلاعاتی آمریکا، داعش از مدتها قبل شبکههای اجتماعی را ابزاری قدرتمند برای جذب نیرو و انتشار اطلاعات نادرست میدانست. بنابراین، جای تعجب نیست که این گروه اکنون در حال آزمودن هوش مصنوعی است. گروههای افراطی کمدرآمد و پراکنده یا حتی یک عامل منفرد با دسترسی به اینترنت، میتوانند هوش مصنوعی را برای تولید انبوهی از تبلیغات یا تصاویر جعلی به کار گیرند که دامنهی دسترسی و نفوذ آنها را بهطور چشمگیری افزایش میدهد. ماه گذشته، فردی در یکی از وبسایتهای طرفدار داعش، از دیگر هواداران این گروه خواست تا هوش مصنوعی را به بخشی از عملیات خود تبدیل کنند. این کاربر به زبان انگلیسی نوشت: «یکی از بهترین ویژگیهای هوش مصنوعی، سهولت استفاده از آن است... برخی از سازمانهای اطلاعاتی نگراناند که هوش مصنوعی به جذب نیرو کمک کند. پس کابوسهایشان را به واقعیت تبدیل کنید».
افزایش تاثیرگذاری با هوش مصنوعی
جان لالیبرته، پژوهشگر سابق آژانس امنیت ملی آمریکا و مدیرعامل کنونی شرکت امنیت سایبری کلیر وکتور، میگوید: «برای هر دشمنی، هوش مصنوعی انجام کارها را بسیار آسانتر میکند. با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارد هم میتواند تأثیرگذار باشد». گروههای ستیزهجو از زمانی که برنامههایی مانند چتجیپیتی بهطور گسترده در دسترس قرار گرفت، شروع به استفاده از هوش مصنوعی کرده و بهطور فزایندهای از برنامههای هوش مصنوعی مولد برای ساخت تصاویر و ویدئوهای جعلی واقعگرایانه استفاده کردهاند. این محتواهای جعلی، وقتی با الگوریتمهای شبکههای اجتماعی ترکیب میشوند، میتوانند به جذب پیروان جدید، سردرگم کردن یا ترساندن دشمنان و انتشار تبلیغات در مقیاسی کمک کنند که تا پیش از این حتی قابل تصور نبود.
نمونههای استفاده از دیپفیک و نگرانیهای امنیتی
دو سال پیش، گروههایی تصاویری جعلی از جنگ اسرائیل و حماس را منتشر کردند که نوزادان خونآلود و رها شده را در ساختمانهای بمباران شده نشان میداد. گروههای خشونتطلب در خاورمیانه و همچنین گروههای یهودستیز در آمریکا و سایر کشورها از این تصاویر برای جذب نیرو استفاده کردند. سال گذشته نیز پس از حملهی یکی از شاخههای داعش که نزدیک به ۱۴۰ نفر را در یک سالن کنسرت در روسیه کشت، ویدیوهای تبلیغاتی گروههای افراطی که توسط هوش مصنوعی با هدف جذب نیرو ساخته شده بود، به طور گسترده پخش شد.
به گفتهی پژوهشگران گروه اطلاعاتی سایت، داعش علاوه بر این، فایلهای صوتی جعلی دیپفیکی از رهبران خود در حال تلاوت متون دینی تولید کرده و از هوش مصنوعی برای ترجمهی سریع پیامهای خود به زبانهای مختلف نیز استفاده کرده است. مارکوس فاولر، مأمور سابق سیا و مدیرعامل کنونی دارکتریس، میگوید گروههای افراطی هنوز از نظر استفاده از هوش مصنوعی از کشورهایی مانند چین، روسیه یا ایران عقبترند، اما کاربردهای پیچیدهتر هوش مصنوعی برایشان «الهامبخش» است. با این حال، او تأکید میکند که خطرات آنقدر جدی است که نمیتوان آنها را نادیده گرفت و احتمالاً با گسترش استفاده از هوش مصنوعی ارزان و قدرتمند، افزایش نیز خواهد یافت.
تهدیدات سایبری و اقدامات قانونی
هکرها هماکنون از صدا و تصاویر جعلی برای حملات فیشینگ استفاده میکنند. آنها همچنین میتوانند از هوش مصنوعی برای نوشتن کدهای مخرب یا خودکارسازی بخشهایی از حملات سایبری استفاده کنند. نگرانکنندهتر، احتمال استفاده گروههای ستیزهجو از هوش مصنوعی برای جبران کمبود تخصص فنی و کمک به تولید سلاحهای شیمیایی یا بیولوژیکی است؛ خطری که در ارزیابی بهروزشده تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است. قانونی که ماه گذشته در مجلس نمایندگان تصویب شد، وزارت امنیت داخلی آمریکا را ملزم میکند که هر سال خطرات ناشی از استفاده چنین گروههایی از هوش مصنوعی را ارزیابی کند.
در جلسهی استماع اخیر مجلس نمایندگان آمریکا در مورد تهدیدهای افراطگرایان، قانونگذاران این کشور مطلع شدند که گروههای داعش و القاعده برای کمک به هواداران خود در یادگیری استفاده از هوش مصنوعی، کارگاههای آموزشی برگزار کردهاند. سناتور مارک وارنر از ایالت ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، گفت که آمریکا باید به توسعهدهندگان هوش مصنوعی کمک کند تا اطلاعات مربوط به سوءاستفاده از محصولاتشان توسط عوامل مخرب را بهراحتی به اشتراک بگذارند. او افزود: «از اواخر سال ۲۰۲۲ و با انتشار عمومی چتجیپیتی، کاملاً مشخص بود که همان علاقه و آزمایشی که عموم مردم نسبت به هوش مصنوعی مولد نشان دادهاند، در میان طیفی از عوامل مخرب هم وجود خواهد داشت».