محققان ارتش آمریکا روشی برای تشخیص «دیپ فیک»‌ یا «جعل عمیق»‌ ابداع کرده‌اند

محققان ارتش آمریکا روشی برای تشخیص «دیپ فیک»‌ یا «جعل عمیق»‌ ابداع کرده‌اند که ممکن است به ایجاد یک تکنولوژی فوق‌العاده برای سربازان منتهی شود و به آنان در انجام وظایفی مانند شناسایی تهدید دشمنان و تشخیص چهره کمک کند.

این روش بر امکانات سبک و آسان برای آموزش، و تکنیک بیومتریک پیشرفته چهره تمرکز دارد که با سایز، وزن و نیازمندی‌های ابزاری سربازان در میدان جنگ، مطابقت دارد.

محققان در بخش فرماندهی توسعه قابلیت‌های رزمی ارتش آمریکا، با یک گروه تحقیقاتی در دانشگاه کالیفرنیای جنوبی همکاری کردند تا با تهدید چشمگیر جعل عمیق علیه جامعه و امنیت ملی، مقابله کنند. نتیجه این همکاری، راه‌حلی ابداعی و فنی به نام «دی‌فیک‌هاپ» است.

نتیجه کار آنان در یک مقاله منتشر شده و قرار است در کنفرانس بین‌المللی مولتی‌مدیا و نمایشگاه ۲۰۲۱ در ماه ژوئیه، ارائه شود.

جعل عمیق «دیپ‌فیک» به محتوای ویدئویی و تکنیکی گفته می‌شود که مبتنی بر هوش مصنوعی است و برای ترکیب و روی هم قرار دادن تصاویر انسان مورد استفاده قرار می‌گیرد و محصول آن ویدیویی جعلی و واقعی‌نما است که فرد را در حال گفتن یا انجام کاری که واقعیت ندارد، نشان می‌دهد.

این ابزار جدید علاوه بر کمک به سربازان در تشخیص تهدیدهای بالقوه علیه امنیت ملی، می‌تواند به خلق نرم‌افزاری منجر شود که موقع پخش ویدیوهای جعلی روی تلفن، به فرد هشدار دهد.

رشد شمار ویدیوهای جعلی از محتوای بدون مجوز افراد تا ویدیوهای ساخته‌ و پرداخته دشمنان خارجی که برای کمپین‌های خبر جعلی درست می‌شوند و پخش گسترده آن‌ها می‌تواند برای جوامع خطرناک باشد.

بیشتر تکنیک‌های پیشرفته تشخیص ویدیوهای جعل عمیق، بر اساس مکانیسم یادگیری عمیق کار می‌کنند که از نظر قابلیت حمل‌ونقل، قدرت و قابلیت ارتقا، ضعف دارند.

به گفته تیم سازنده فناوری جدید، دی‌فیک‌هاپ نسبت به روش‌های قبلی، چندین مزیت عمده دارد؛ از جمله این که کوچک است و امکان اجرای آن بر ابزار و پلتفرم‌های دیگر وجود دارد.

دانشمندان می‌گویند که نزدیک به هشت هزار ویدیوی جعل عمیق در اوایل سال ۲۰۱۹ در فضای آنلاین وجود داشت و تنها در ۹ ماه، این شمار تقریبا دو برابر شده است.

دیپ فیک چیست؟

دیپ فیک در واقع یک تکنیک نرم‌افزاری و بر پایه هوش مصنوعی است که می‌تواند محتوای صوتی و تصویری را تغییر داده و به چیزی کاملا متفاوت تبدیل کند. دیپ فیک یا Deep Fake ترکیب دو مفهوم یادگیری عمیق یا Deep Learning و جعل یا Fake می‌باشد. جالب است بدانید که این تکنولوژی چیز جدیدی نیست و قبلا نیز در فیلم‌های سینمایی بسیار زیادی استفاده شده‌ است و بسیاری از صحنه‌های عجیب فیلم‌های مختلف و بخصوص صحنه‌هایی که به افراد مربوط است با این تکنولوژی درست می‌شود. اگر طرفدار فیلم‌های اکشن باشید احتمالا ستاره فیلم سریع و خشن، پاول واکر را می‌شناسید. او پیش از تکمیل فیلمبرداری سری هفتم فیلم به علت تصادف جان خود را از دست داد اما عوامل فیلم با کمک تکنولوژی دیپ فیک او را به فیلم بازگرداندند.

در فناوری دیپ فیک از الگوریتم‌های به خصوصی در یادگیری ماشین و یادگیری عمیق با نام Generative Adversarial Networks یا شبکه‌های مولد تخاصمی استفاده می‌شود تا تصاویر مختلف با هم ترکیب و بر هم منطبق شوند. دیپ فیک از این شبکه‌ها، یا به اختصار GAN، استفاده می‌کند و که در واقع دو مدل هوش مصنوعی دارند. یکی از این مدل‌ها محتوای جعلی را تولید می‌کند و مدل دیگر جعلی بودن یا نبودن آن را شناسایی می‌کند. قبل از این از نرم‌افزارهایی مانند فوتوشاپ برای جعل و ایجاد تصاویر غیر واقعی استفاده می‌شد اما نکته جالبی که در مورد دیپ فیک وجود دارد آن است که این نرم‌افزار مبتنی بر هوش مصنوعی است و نیازی به دخالت مستقیم انسان ندارد.

آیا فناوری دیپ فیک خطرناک است؟

هر ابزار یا فناوری جدید به خودی خود خطرناک نیست. قطعا شما هم با این جمله موافقید که هر ابزاری می‌تواند هم استفاده مفید داشته باشد و هم موجب آزار و مشکل شود. دیپ فیک هم مانند سایر این ابزارها و تکنولوژی‌ها می‌تواند هم بسیار کاربردی و راه حل بسیاری از چالش‌ها باشد و هم می‌تواند استفاده‌های مخاطره آمیزی داشته باشد که به خصوص به حریم شخصی افراد و وجهه اجتماعی آن‌ها آسیب برساند.

متاسفانه استفاده‌های مخاطره آمیز از فناوری دیپ فیک به خصوص برای سیاستمداران و یا چهره‌های مشهور بسیار زیاد است و این مسئله برخی اوقات باعث ایجاد مشکلاتی شده است. برای مثال مدت‌ها پیش ویدئویی از باراک اوباما، رئیس جمهور سابق آمریکا، پخش شد که در آن به دونالد ترامپ، رئیس جمهور حال حاضر آمریکا، توهین می‌کند و او را فردی حقیر و غیر منطقی توصیف می‌کند. با همه این‌ها فناوری دیپ فیک به منظور ایجاد محتوای صوتی و تصویری هماهنگ و نزدیک به واقعیت ایجاد شده است و با سرعت زیادی هر روز در حال پیشرفت روز افزون است.

مطالب مرتبط