تاریخ انتشار : ۱۵ دی ۱۴۰۴ - ۲۲:۲۵  ، 
کد خبر : ۳۸۶۱۶۱
گزارش فارن افرز از تهدید دیپ‌فیک‌ها در دنیای امروز

خطرناک از بمب اتم

نشریه «فارن افرز» می‌نویسد اگرچه کشور‌های دارای سلاح هسته‌ای دهه‌هاست تلاش کرده‌اند از شلیک اشتباهی این سلاح‌ها جلوگیری کنند، خطر محاسبه غلط امروز به همان اندازه دوران جنگ سرد جدی است و حتی به‌دلیل اطلاعات نادرست مبتنی بر هوش مصنوعی می‌تواند شدیدتر هم باشد.

این مقاله خطر اصلی را در رشد دیپ‌فیک‌ها می‌داند؛ ویدئوها، تصاویر یا فایل‌های صوتی بسیار باورپذیری که برای تولید اطلاعات نادرست به‌کار می‌روند. به نوشته این مقاله، این فناوری‌ها پیشتر نیز در عرصه ژئوپلیتیک استفاده شده‌اند. از جمله، اندکی پس از آغاز جنگ اوکراین در سال ۲۰۲۲، یک دیپ‌فیک گسترده منتشر شد که در آن رئیس‌جمهور اوکراین ظاهراً از نیروهایش می‌خواست سلاح‌ها را زمین بگذارند.

بر اساس این تحلیل، در بدترین سناریو، یک دیپ‌فیک می‌تواند رهبر یک کشور دارای سلاح هسته‌ای را متقاعد کند که دشمن حمله نخست را آغاز کرده یا در شرف آغاز آن است. همچنین سامانه‌های اطلاعاتی پشتیبانی‌شده با هوش مصنوعی ممکن است هشدار‌های نادرستی درباره بسیج نظامی یا حتی حمله با بمب هسته‌ای صادر کنند.

به گفته نشریه آمریکایی، سامانه‌های هوش مصنوعی مستعد پدیده‌هایی، مانند «توهم» و «جعل» هستند؛ یعنی تولید پاسخ‌های نادرست، اما با اعتمادبه‌نفس بالا. از آنجا که منطق درونی این سامانه‌ها اغلب شفاف نیست، کاربران انسانی ممکن است ندانند چرا یک سیستم به نتیجه‌ای خاص رسیده است. مقاله به پژوهش‌هایی اشاره می‌کند که نشان می‌دهد افراد با آشنایی متوسط با هوش مصنوعی، حتی در حوزه امنیت ملی، به خروجی هوش مصنوعی اعتماد دارند.

به‌گفته نشریه آمریکایی، دیپ‌فیک‌ها می‌توانند برای آغاز جنگ بهانه‌تراشی کرده، افکار عمومی را تحریک کنند یا در بحبوحه بحران، سردرگمی ایجاد کنند. فارن افرز هشدار می‌دهد که دیپ‌فیک‌ها و اطلاعات نادرست مبتنی بر هوش مصنوعی، خطر‌های بی‌سابقه‌ای برای سامانه‌های هسته‌ای ایجاد کرده‌اند؛ بنابراین سیاست‌ها باید به‌صراحت تضمین کنند که ماشین‌ها هرگز بدون کنترل انسانی تصمیم به شلیک هسته‌ای نخواهند گرفت.

نظرات بینندگان
ارسال خبرنامه
برای عضویت در خبرنامه سایت ایمیل خود را وارد نمایید.
نشریات