محققان ارتش آمریکا روشی برای تشخیص «دیپ فیک» یا «جعل عمیق» ابداع کردهاند که ممکن است به ایجاد یک تکنولوژی فوقالعاده برای سربازان منتهی شود و به آنان در انجام وظایفی مانند شناسایی تهدید دشمنان و تشخیص چهره کمک کند.
این روش بر امکانات سبک و آسان برای آموزش، و تکنیک بیومتریک پیشرفته چهره تمرکز دارد که با سایز، وزن و نیازمندیهای ابزاری سربازان در میدان جنگ، مطابقت دارد.
محققان در بخش فرماندهی توسعه قابلیتهای رزمی ارتش آمریکا، با یک گروه تحقیقاتی در دانشگاه کالیفرنیای جنوبی همکاری کردند تا با تهدید چشمگیر جعل عمیق علیه جامعه و امنیت ملی، مقابله کنند. نتیجه این همکاری، راهحلی ابداعی و فنی به نام «دیفیکهاپ» است.
نتیجه کار آنان در یک مقاله منتشر شده و قرار است در کنفرانس بینالمللی مولتیمدیا و نمایشگاه ۲۰۲۱ در ماه ژوئیه، ارائه شود.
جعل عمیق «دیپفیک» به محتوای ویدئویی و تکنیکی گفته میشود که مبتنی بر هوش مصنوعی است و برای ترکیب و روی هم قرار دادن تصاویر انسان مورد استفاده قرار میگیرد و محصول آن ویدیویی جعلی و واقعینما است که فرد را در حال گفتن یا انجام کاری که واقعیت ندارد، نشان میدهد.
این ابزار جدید علاوه بر کمک به سربازان در تشخیص تهدیدهای بالقوه علیه امنیت ملی، میتواند به خلق نرمافزاری منجر شود که موقع پخش ویدیوهای جعلی روی تلفن، به فرد هشدار دهد.
رشد شمار ویدیوهای جعلی از محتوای بدون مجوز افراد تا ویدیوهای ساخته و پرداخته دشمنان خارجی که برای کمپینهای خبر جعلی درست میشوند و پخش گسترده آنها میتواند برای جوامع خطرناک باشد.
بیشتر تکنیکهای پیشرفته تشخیص ویدیوهای جعل عمیق، بر اساس مکانیسم یادگیری عمیق کار میکنند که از نظر قابلیت حملونقل، قدرت و قابلیت ارتقا، ضعف دارند.
به گفته تیم سازنده فناوری جدید، دیفیکهاپ نسبت به روشهای قبلی، چندین مزیت عمده دارد؛ از جمله این که کوچک است و امکان اجرای آن بر ابزار و پلتفرمهای دیگر وجود دارد.
دانشمندان میگویند که نزدیک به هشت هزار ویدیوی جعل عمیق در اوایل سال ۲۰۱۹ در فضای آنلاین وجود داشت و تنها در ۹ ماه، این شمار تقریبا دو برابر شده است.
دیپ فیک چیست؟
دیپ فیک در واقع یک تکنیک نرمافزاری و بر پایه هوش مصنوعی است که میتواند محتوای صوتی و تصویری را تغییر داده و به چیزی کاملا متفاوت تبدیل کند. دیپ فیک یا Deep Fake ترکیب دو مفهوم یادگیری عمیق یا Deep Learning و جعل یا Fake میباشد. جالب است بدانید که این تکنولوژی چیز جدیدی نیست و قبلا نیز در فیلمهای سینمایی بسیار زیادی استفاده شده است و بسیاری از صحنههای عجیب فیلمهای مختلف و بخصوص صحنههایی که به افراد مربوط است با این تکنولوژی درست میشود. اگر طرفدار فیلمهای اکشن باشید احتمالا ستاره فیلم سریع و خشن، پاول واکر را میشناسید. او پیش از تکمیل فیلمبرداری سری هفتم فیلم به علت تصادف جان خود را از دست داد اما عوامل فیلم با کمک تکنولوژی دیپ فیک او را به فیلم بازگرداندند.
در فناوری دیپ فیک از الگوریتمهای به خصوصی در یادگیری ماشین و یادگیری عمیق با نام Generative Adversarial Networks یا شبکههای مولد تخاصمی استفاده میشود تا تصاویر مختلف با هم ترکیب و بر هم منطبق شوند. دیپ فیک از این شبکهها، یا به اختصار GAN، استفاده میکند و که در واقع دو مدل هوش مصنوعی دارند. یکی از این مدلها محتوای جعلی را تولید میکند و مدل دیگر جعلی بودن یا نبودن آن را شناسایی میکند. قبل از این از نرمافزارهایی مانند فوتوشاپ برای جعل و ایجاد تصاویر غیر واقعی استفاده میشد اما نکته جالبی که در مورد دیپ فیک وجود دارد آن است که این نرمافزار مبتنی بر هوش مصنوعی است و نیازی به دخالت مستقیم انسان ندارد.
آیا فناوری دیپ فیک خطرناک است؟
هر ابزار یا فناوری جدید به خودی خود خطرناک نیست. قطعا شما هم با این جمله موافقید که هر ابزاری میتواند هم استفاده مفید داشته باشد و هم موجب آزار و مشکل شود. دیپ فیک هم مانند سایر این ابزارها و تکنولوژیها میتواند هم بسیار کاربردی و راه حل بسیاری از چالشها باشد و هم میتواند استفادههای مخاطره آمیزی داشته باشد که به خصوص به حریم شخصی افراد و وجهه اجتماعی آنها آسیب برساند.
متاسفانه استفادههای مخاطره آمیز از فناوری دیپ فیک به خصوص برای سیاستمداران و یا چهرههای مشهور بسیار زیاد است و این مسئله برخی اوقات باعث ایجاد مشکلاتی شده است. برای مثال مدتها پیش ویدئویی از باراک اوباما، رئیس جمهور سابق آمریکا، پخش شد که در آن به دونالد ترامپ، رئیس جمهور حال حاضر آمریکا، توهین میکند و او را فردی حقیر و غیر منطقی توصیف میکند. با همه اینها فناوری دیپ فیک به منظور ایجاد محتوای صوتی و تصویری هماهنگ و نزدیک به واقعیت ایجاد شده است و با سرعت زیادی هر روز در حال پیشرفت روز افزون است.