هشدار کارشناسان آمریکایی درباره‌ی افزایش خطر گروه‌های ستیزه‌جو با هوش مصنوعی

نهادهای اطلاعاتی آمریکا نسبت به استفاده گروه‌های افراطی از هوش مصنوعی برای جذب نیرو، تولید دیپ‌فیک و حملات سایبری هشدار می‌دهند.

کارشناسان امنیتی و نهادهای اطلاعاتی آمریکا هشدار داده‌اند که گسترش هوش مصنوعی ارزان و نیرومند می‌تواند ابزاری قدرتمند برای سازمان‌های افراطی باشد. این فناوری می‌تواند برای جذب نیرو، تولید تصاویر دیپ‌فیک واقع‌گرانه و بهبود حملات سایبری مورد استفاده قرار گیرد. نگرانی عمده‌تر، احتمال استفاده گروه‌های ستیزه‌جو از هوش مصنوعی برای جبران کمبود تخصص فنی و حتی کمک به تولید سلاح‌های شیمیایی یا بیولوژیکی است. 

خبرگزاری آسوشیتدپرس در روز دوشنبه ۱۵ دسامبر (۲۴ آذر) در گزارشی نوشت که با وجود شتاب جهانی در بهره‌گیری از هوش مصنوعی، گروه‌های ستیزه‌جو نیز در حال آزمایش این فناوری هستند.

 

داعش و بهره‌برداری از هوش مصنوعی

به گفته‌ی کارشناسان امنیت ملی و نهادهای اطلاعاتی آمریکا، داعش از مدت‌ها قبل شبکه‌های اجتماعی را ابزاری قدرتمند برای جذب نیرو و انتشار اطلاعات نادرست می‌دانست. بنابراین، جای تعجب نیست که این گروه اکنون در حال آزمودن هوش مصنوعی است. گروه‌های افراطی کم‌درآمد و پراکنده یا حتی یک عامل منفرد با دسترسی به اینترنت، می‌توانند هوش مصنوعی را برای تولید انبوهی از تبلیغات یا تصاویر جعلی به کار گیرند که دامنه‌ی دسترسی و نفوذ آن‌ها را به‌طور چشمگیری افزایش می‌دهد. ماه گذشته، فردی در یکی از وب‌سایت‌های طرفدار داعش، از دیگر هواداران این گروه خواست تا هوش مصنوعی را به بخشی از عملیات خود تبدیل کنند. این کاربر به زبان انگلیسی نوشت: «یکی از بهترین ویژگی‌های هوش مصنوعی، سهولت استفاده از آن است... برخی از سازمان‌های اطلاعاتی نگران‌اند که هوش مصنوعی به جذب نیرو کمک کند. پس کابوس‌هایشان را به واقعیت تبدیل کنید».

 

افزایش تاثیرگذاری با هوش مصنوعی

جان لالیبرته، پژوهشگر سابق آژانس امنیت ملی آمریکا و مدیرعامل کنونی شرکت امنیت سایبری کلیر وکتور، می‌گوید: «برای هر دشمنی، هوش مصنوعی انجام کارها را بسیار آسان‌تر می‌کند. با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارد هم می‌تواند تأثیرگذار باشد». گروه‌های ستیزه‌جو از زمانی که برنامه‌هایی مانند چت‌جی‌پی‌تی به‌طور گسترده در دسترس قرار گرفت، شروع به استفاده از هوش مصنوعی کرده و به‌طور فزاینده‌ای از برنامه‌های هوش مصنوعی مولد برای ساخت تصاویر و ویدئوهای جعلی واقع‌گرایانه استفاده کرده‌اند. این محتواهای جعلی، وقتی با الگوریتم‌های شبکه‌های اجتماعی ترکیب می‌شوند، می‌توانند به جذب پیروان جدید، سردرگم کردن یا ترساندن دشمنان و انتشار تبلیغات در مقیاسی کمک کنند که تا پیش از این حتی قابل تصور نبود.

 

نمونه‌های استفاده از دیپ‌فیک و نگرانی‌های امنیتی

دو سال پیش، گروه‌هایی تصاویری جعلی از جنگ اسرائیل و حماس را منتشر کردند که نوزادان خون‌آلود و رها شده را در ساختمان‌های بمباران شده نشان می‌داد. گروه‌های خشونت‌طلب در خاورمیانه و همچنین گروه‌های یهودستیز در آمریکا و سایر کشورها از این تصاویر برای جذب نیرو استفاده کردند. سال گذشته نیز پس از حمله‌ی‌ یکی از شاخه‌های داعش که نزدیک به ۱۴۰ نفر را در یک سالن کنسرت در روسیه کشت، ویدیوهای تبلیغاتی گروه‌های افراطی که‌ توسط هوش مصنوعی با هدف جذب نیرو ساخته شده بود، به طور گسترده پخش شد.

به گفته‌ی پژوهشگران گروه اطلاعاتی سایت، داعش علاوه بر این، فایل‌های صوتی جعلی دیپ‌فیکی از رهبران خود در حال تلاوت متون دینی تولید کرده و از هوش مصنوعی برای ترجمه‌ی سریع پیام‌های خود به زبان‌های مختلف نیز استفاده کرده است. مارکوس فاولر، مأمور سابق سیا و مدیرعامل کنونی دارک‌تریس، می‌گوید گروه‌های افراطی هنوز از نظر استفاده از هوش مصنوعی از کشورهایی مانند چین، روسیه یا ایران عقب‌ترند، اما کاربردهای پیچیده‌تر هوش مصنوعی برایشان «الهام‌بخش» است. با این حال، او تأکید می‌کند که خطرات آن‌قدر جدی است که نمی‌توان آن‌ها را نادیده گرفت و احتمالاً با گسترش استفاده از هوش مصنوعی ارزان و قدرتمند، افزایش نیز خواهد یافت.

 

تهدیدات سایبری و اقدامات قانونی

هکرها هم‌اکنون از صدا و تصاویر جعلی برای حملات فیشینگ استفاده می‌کنند. آن‌ها همچنین می‌توانند از هوش مصنوعی برای نوشتن کدهای مخرب یا خودکارسازی بخش‌هایی از حملات سایبری استفاده کنند. نگران‌کننده‌تر، احتمال استفاده گروه‌های ستیزه‌جو از هوش مصنوعی برای جبران کمبود تخصص فنی و کمک به تولید سلاح‌های شیمیایی یا بیولوژیکی است؛ خطری که‌ در ارزیابی به‌روزشده تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است. قانونی که ماه گذشته در مجلس نمایندگان تصویب شد، وزارت امنیت داخلی آمریکا را ملزم می‌کند که هر سال خطرات ناشی از استفاده چنین گروه‌هایی از هوش مصنوعی را ارزیابی کند.

در جلسه‌ی استماع اخیر مجلس نمایندگان آمریکا در مورد تهدیدهای افراط‌گرایان، قانون‌گذاران این کشور مطلع شدند که گروه‌های داعش و القاعده برای کمک به هواداران خود در یادگیری استفاده از هوش مصنوعی، کارگاه‌های آموزشی برگزار کرده‌اند. سناتور مارک وارنر از ایالت ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، گفت که آمریکا باید به توسعه‌دهندگان هوش مصنوعی کمک کند تا اطلاعات مربوط به سوءاستفاده از محصولاتشان توسط عوامل مخرب را به‌راحتی به اشتراک بگذارند. او افزود: «از اواخر سال ۲۰۲۲ و با انتشار عمومی چت‌جی‌پی‌تی، کاملاً مشخص بود که همان علاقه و آزمایشی که عموم مردم نسبت به هوش مصنوعی مولد نشان داده‌اند، در میان طیفی از عوامل مخرب هم وجود خواهد داشت».