صوت، مدرکی که محکمه پسند نیست و با آن نمیتوان ادعایی را اثبات کرد. صدا، یکی از راحتترین دادههایی است که نه تنها با کمک رایانه، بلکه حتی با کمک استعداد برخی افراد هم امکان شبیهسازی آن وجود دارد، همانطور که تقلید صدا یکی از راههای معروف شدن است. بر خلاف صدا، فیلم دادهای است که میتوان با آن برهانی آورد. البته شاید تا به امروز فقط؛ همانطور که در گذشته درباره هوش مصنوعی صحبت کردیم، نام یک فناوری را آوردیم که قرار گذاشتیم در آینده راجع به آن بیشتر توضیح دهیم، و آن «دیپ فیک و یا جعل عمیق» است.
هوش مصنوعی، شاخهای از علم رایانه است که در تلاش برای شبیهسازی مغز انسان و فرایندهای تصمیمگیری آن است. این رشته، از زیر رشتههای مختلفی تشکیل شده است،مانند یادگیری ماشین، شبکههای عصبی، پردازش زبان طبیعی، پردازش تصویر و... . امروزه به کمک هوش مصنوعی، تحولات بسیار مفیدی در دیگر شاخههای علم در حال رخ دادن است. در پزشکی و درمان بیماریها، در مهندسی و عمران، در جغرافیا و زمینشناسی و بسیاری از علوم دیگر، پیشرفتهای شگرفی با کمک هوشمصنوعی انجام شده است. اما این علم راهگشا میتواند یک لبه دیگر هم داشته باشد و آن ایجاد گمراهی و فریب مردم باشد.
دیپ فیک یا جعل عمیق، یکی از کارکردهای هوش مصنوعی است که با کمک آن، دیگر مرزی بین حقیقت و نیرنگ باقی نمیماند. با دیپ فیک، دیگر به چشمان خودتان هم نباید اعتماد کنید. جعل عمیق، فرآیندی است که به کمک آن، ویدیوهای دروغین باورپذیر درست میشود. تصور کنید فیلمی در سراسر جهان در شبکههای مجازی پخش شود که در آن رئیسجمهور کرهشمالی، بر علیه آمریکا اعلام جنگ کند و دستور حمله بدهد، در حالی که او بیخبر از همه جا مشغول بازدید از کارخانهای در کشور خود است! جعل عمیق یعنی گمراهکردن افکار عمومی با ساخت محتویات واقعگرایانه که کاربر عادی امکان تشخیص دروغ بودن آن را نداشته باشد.
اگر یک روز پیامی تصویری از یک چهره آشنا یا مشهور دریافت کردید که از شما با نام بردن نامتان درخواست کرد مبلغی پول به حسابی واریز کنید، حتماً یاد این مطلب بیفتید و بدانید که دیگر نه به گوشهایتان باید اعتماد کنید و نه به چشمهایتان! یکی از ویژگیهای خاص جعل عمیق، در لحظه بودن آن است، یعنی شما میتوانید آنلاین با شخصیتی دروغین، صحبت کنید و او به سؤالهای شما پاسخ دهد، چیزی که کاملاً کارکرد محکمه پسند بودن تصویر را باطل میکند.
جعل عمیق و الگوریتمهای هوش مصنوعی بر پایه جمعآوری دادهها ایجاد میشود. برای جعل کردن شخصیتی مانند باراک اوباما و ساخت ویدویی دروغین وی، نیاز به کار خاصی نیست، زیرا به اندازه کافی از صدا و تصویر او داده در اینترنت وجود دارد و به راحتی میتوان شخصیتهای معروف را جعل کرد.
اما باید توجه کنید که با اشتراک عکسها و صداهای خود در شبکههای مجازی، به مرور از خود دادههای کافی را برای جعل هویت خود فراهم میکنید. در فناوری جعل عمیق، از دسته خاصی از الگوریتم یادگیری ماشین با نام «شبکههای مولد تخاصمی» استفاده میشود تا تصاویر یا ویدئوهای موجود روی مجموعهای از تصاویر و ویدئوهای منبع، ترکیب شود. وقتی از شما دادهای در فضای مجازی وجود نداشته باشد، هویت دیجیتالی شما هم امن باقی خواهد ماند!
از آنجایی که دیپفیک بر اساس هوش مصنوعی ساخته شده است، به راحتی هر کاربر عادی هم میتواند هر ویدئوی جعلی را ایجاد کند! یکی از ویژگیهای هوش مصنوعی این است که تنها یک بار باید الگوریتم آن ایجاد شود و بعد از آن هرکسی میتواند با آن کار کند، پس در آینده هرشخصی با هر نیتی میتواند ویدئوی دروغین ایجاد کند.
جعل عمیق نشاندهنده این حقیقت است که باید بیش از پیش به امنیت هویت دیجیتالی خود فکر کنیم. برای فکر کردن به این موضوع، کافی است به این نکته فکر کنید که چرا واتساپ، تلگرام، اینستاگرام و... تقریباً همه سرویسهای فضای مجازی، به رایگان دست ما است. این که این سرویسدهندهها با تبلیغات، هزینه خود را درمیآورند، شاید بخشی از ماجراست و روی دیگر این رایگان بودن، سوءاستفاده و فروش دادههای دیجیتالی هویت کاربرانشان است. وقتی کلابهاوس به رایگان به شما سرویس میدهد، صدای شما دادهای ارزشمند برای آن است، اینستاگرام فیلمهای شما را دارد، تلگرام و واتساپ طرز تفکر شما را دارند و بعد از مدتی شخصت دیجیتالی شما به راحتی جعل خواهد شد!
روی دیگر آشنایی با جعل عمیق، دادن این بینش به ما است که نباید هرچیزی را که میبینیم و میشنویم، باور کنیم. فضای مجازی، جایی است که انواع اخبار دروغین در آن وجود دارد و امروزه باید بدانیم که علاوه بر اخبار دروغین، با فیلم و تصاویر دروغین هم مواجه هستیم!
بنابراین اگر در زمان انتخابات ساعاتی مانده به رأیگیری، کلیپی از نامزد مورد علاقه خود دیدیم که در آن به نفع نامزد دیگری انصراف داده است، باید بدانیم که در فضای مجازی دیگر هیچ چیز صد در صد واقعی نیست.