صبح صادق >>  نگاه >> یادداشت
تاریخ انتشار : ۱۲ مهر ۱۴۰۰ - ۱۴:۴۶  ، 
کد خبر : ۳۳۳۹۵۴
نگاهی به تهدیدات جعل هویت دیجیتالی افراد در فضای مجازی

جعل عمیق!

پایگاه بصیرت / محمد صالح نادری

صوت، مدرکی که محکمه پسند نیست و با آن نمی‌توان ادعایی را اثبات کرد. صدا، یکی از راحت‌ترین داده‌هایی است که نه تنها با کمک رایانه، بلکه حتی با کمک استعداد برخی افراد هم امکان شبیه‌سازی آن وجود دارد، همان‌طور که تقلید صدا یکی از راه‌های معروف شدن است. بر خلاف صدا، فیلم داده‌ای است که می‌توان با آن برهانی آورد. البته شاید تا به امروز فقط؛ همان‌طور که در گذشته درباره هوش مصنوعی صحبت کردیم، نام یک فناوری را آوردیم که قرار گذاشتیم در آینده راجع به آن بیشتر توضیح دهیم، و آن «دیپ فیک و یا جعل عمیق» است.

هوش مصنوعی، شاخه‌ای از علم رایانه است که در تلاش برای شبیه‌سازی مغز انسان و فرایندهای تصمیم‌گیری آن است. این رشته، از زیر رشته‌های مختلفی تشکیل شده است،مانند یادگیری ماشین، شبکه‌های عصبی، پردازش زبان طبیعی، پردازش تصویر و... . امروزه به کمک هوش مصنوعی، تحولات بسیار مفیدی در دیگر شاخه‌‎های علم در حال رخ دادن است. در پزشکی و درمان بیماری‌ها، در مهندسی و عمران، در جغرافیا و زمین‌شناسی و بسیاری از علوم دیگر، پیشرفت‌های شگرفی با کمک هوش‌مصنوعی انجام شده است. اما این علم راهگشا می‌تواند یک لبه دیگر هم داشته باشد و آن ایجاد گمراهی و فریب مردم باشد.

دیپ فیک یا جعل عمیق، یکی از کارکردهای هوش مصنوعی است که با کمک آن، دیگر مرزی بین حقیقت و نیرنگ باقی نمی‌ماند. با دیپ فیک، دیگر به چشمان خودتان هم نباید اعتماد کنید. جعل عمیق، فرآیندی است که به کمک آن، ویدیو‌های دروغین باورپذیر درست می‌شود. تصور کنید فیلمی در سراسر جهان در شبکه‌های مجازی پخش شود که در آن رئیس‌جمهور کره‌شمالی، بر علیه آمریکا اعلام جنگ کند و دستور حمله بدهد، در حالی که او بی‌خبر از همه جا مشغول بازدید از کارخانه‌ای در کشور خود است! جعل عمیق یعنی گمراه‌کردن افکار عمومی با ساخت محتویات واقع‌گرایانه که کاربر عادی امکان تشخیص دروغ بودن آن را نداشته باشد.

اگر یک روز پیامی تصویری از یک چهره آشنا یا مشهور دریافت کردید که از شما با نام بردن نام‌تان درخواست کرد مبلغی پول به حسابی واریز کنید، حتماً یاد این مطلب بیفتید و بدانید که دیگر نه به گوش‌هایتان باید اعتماد کنید و نه به چشم‌هایتان! یکی از ویژگی‌های خاص جعل عمیق، در لحظه بودن آن است، یعنی شما می‌توانید آنلاین با شخصیتی دروغین، صحبت کنید و او به سؤال‌های شما پاسخ دهد، چیزی که کاملاً کارکرد محکمه پسند بودن تصویر را باطل می‌کند.

جعل عمیق و الگوریتم‌های هوش مصنوعی بر پایه جمع‌آوری داده‌ها ایجاد می‌شود. برای جعل کردن شخصیتی مانند باراک اوباما و ساخت ویدویی دروغین وی، نیاز به کار خاصی نیست، زیرا به اندازه کافی از صدا و تصویر او داده در اینترنت وجود دارد و به راحتی می‌‌توان شخصیت‌های معروف را جعل کرد.

اما باید توجه کنید که با اشتراک عکس‌ها و صداهای خود در شبکه‌های مجازی، به مرور از خود داده‌های کافی را برای جعل هویت خود فراهم می‌کنید. در فناوری جعل عمیق، از دسته خاصی از الگوریتم یادگیری ماشین با نام «شبکه‌های مولد تخاصمی» استفاده می‌شود تا تصاویر یا ویدئوهای موجود روی مجموعه‌ای از تصاویر و ویدئوهای منبع، ترکیب شود. وقتی از شما داده‌ای در فضای مجازی وجود نداشته باشد، هویت دیجیتالی شما هم امن باقی خواهد ماند!

از آنجایی که دیپ‌فیک بر اساس هوش مصنوعی ساخته شده است، به راحتی هر کاربر عادی هم می‌تواند هر ویدئوی جعلی را ایجاد کند! یکی از ویژگی‌های هوش مصنوعی این است که تنها یک بار باید الگوریتم آن ایجاد شود و بعد از آن هرکسی می‌‌تواند با آن کار کند، پس در آینده هرشخصی با هر نیتی می‌تواند ویدئوی دروغین ایجاد کند.

جعل عمیق نشان‌دهنده این حقیقت است که باید بیش از پیش به امنیت هویت دیجیتالی خود فکر کنیم. برای فکر کردن به این موضوع، کافی است به این نکته فکر کنید که چرا واتساپ، تلگرام، اینستاگرام و... تقریباً همه سرویس‌های فضای مجازی، به رایگان دست ما است. این که این سرویس‌دهنده‌ها با تبلیغات، هزینه خود را در‌می‌آورند، شاید بخشی از ماجراست و روی ‌دیگر این رایگان بودن، سوءاستفاده و فروش داده‌های دیجیتالی هویت کاربران‌شان است. وقتی کلاب‌هاوس به رایگان به شما سرویس می‌دهد، صدای شما داده‌ای ارزشمند برای آن است، اینستاگرام فیلم‌های شما را دارد، تلگرام و واتساپ طرز تفکر شما را دارند و بعد از مدتی شخصت دیجیتالی شما به راحتی جعل خواهد شد!

روی دیگر آشنایی با جعل عمیق، دادن این بینش به ما است که نباید هرچیزی را که می‌بینیم و می‌شنویم، باور کنیم. فضای مجازی، جایی است که انواع اخبار دروغین در آن وجود دارد و امروزه باید بدانیم که علاوه بر اخبار دروغین، با فیلم و تصاویر دروغین هم مواجه هستیم!

بنابراین اگر در زمان انتخابات ساعاتی مانده به رأی‌گیری، کلیپی از نامزد مورد علاقه خود دیدیم که در آن به نفع نامزد دیگری انصراف داده است، باید بدانیم که در فضای مجازی دیگر هیچ چیز صد در صد واقعی نیست.

نظرات بینندگان
ارسال خبرنامه
برای عضویت در خبرنامه سایت ایمیل خود را وارد نمایید.
نشریات