نشریه «فارن افرز» مینویسد اگرچه کشورهای دارای سلاح هستهای دهههاست تلاش کردهاند از شلیک اشتباهی این سلاحها جلوگیری کنند، خطر محاسبه غلط امروز به همان اندازه دوران جنگ سرد جدی است و حتی بهدلیل اطلاعات نادرست مبتنی بر هوش مصنوعی میتواند شدیدتر هم باشد.
این مقاله خطر اصلی را در رشد دیپفیکها میداند؛ ویدئوها، تصاویر یا فایلهای صوتی بسیار باورپذیری که برای تولید اطلاعات نادرست بهکار میروند. به نوشته این مقاله، این فناوریها پیشتر نیز در عرصه ژئوپلیتیک استفاده شدهاند. از جمله، اندکی پس از آغاز جنگ اوکراین در سال ۲۰۲۲، یک دیپفیک گسترده منتشر شد که در آن رئیسجمهور اوکراین ظاهراً از نیروهایش میخواست سلاحها را زمین بگذارند.
بر اساس این تحلیل، در بدترین سناریو، یک دیپفیک میتواند رهبر یک کشور دارای سلاح هستهای را متقاعد کند که دشمن حمله نخست را آغاز کرده یا در شرف آغاز آن است. همچنین سامانههای اطلاعاتی پشتیبانیشده با هوش مصنوعی ممکن است هشدارهای نادرستی درباره بسیج نظامی یا حتی حمله با بمب هستهای صادر کنند.
به گفته نشریه آمریکایی، سامانههای هوش مصنوعی مستعد پدیدههایی، مانند «توهم» و «جعل» هستند؛ یعنی تولید پاسخهای نادرست، اما با اعتمادبهنفس بالا. از آنجا که منطق درونی این سامانهها اغلب شفاف نیست، کاربران انسانی ممکن است ندانند چرا یک سیستم به نتیجهای خاص رسیده است. مقاله به پژوهشهایی اشاره میکند که نشان میدهد افراد با آشنایی متوسط با هوش مصنوعی، حتی در حوزه امنیت ملی، به خروجی هوش مصنوعی اعتماد دارند.
بهگفته نشریه آمریکایی، دیپفیکها میتوانند برای آغاز جنگ بهانهتراشی کرده، افکار عمومی را تحریک کنند یا در بحبوحه بحران، سردرگمی ایجاد کنند. فارن افرز هشدار میدهد که دیپفیکها و اطلاعات نادرست مبتنی بر هوش مصنوعی، خطرهای بیسابقهای برای سامانههای هستهای ایجاد کردهاند؛ بنابراین سیاستها باید بهصراحت تضمین کنند که ماشینها هرگز بدون کنترل انسانی تصمیم به شلیک هستهای نخواهند گرفت.