تشخیص Deepfakes

جعل ویدئوها ایجاد شده توسط AI—ویژه در عمیق شبکه های عصبی (DNNs)—در حال یک پیچ و تاب و های اخیر به نگرانکننده مشکل آنلاین دروغ. اگر چه ساخت و دستکاری تصاویر دیجیتال و فیلم جدید توسعه سریع تکنولوژی هوش مصنوعی در سال های اخیر ساخته شده است که این روند به ایجاد قانع کننده جعلی ویدئوها بسیار ساده تر و سریع تر است. AI تولید جعلی پورنو برای اولین بار, گیر افتاد, عمومی توجه در اواخر سال 2017, هنگامی که یک ق حساب با نام Deepfakes ارسال فیلم مستهجن تولید شده با DNN-بر اساس چهره-مبادله الگوریتم. پس از آن اصطلاح deepfake استفاده شده است به طور گسترده تر برای اشاره به همه انواع هوش مصنوعی-تولید جعل هویت ،

در حالی که وجود دارد جالب و خلاقانه برنامه های کاربردی از deepfakes آنها نیز به احتمال زیاد به weaponized. ما در میان زود پاسخ به این پدیده و توسعه اولین deepfake روش تشخیص بر اساس عدم واقع گرایانه چشم و چشمک زدن در اوایل نسل از deepfake ویدئوها در اوایل سال 2018 است. پس از آن وجود دارد این است که افزایش بهره در حال توسعه deepfake روش تشخیص.

تشخیص چالش

اوج این تلاش ها است که در این سال Deepfake تشخیص چالش است. به طور کلی راه حل های برنده یک تور دو نیروی پیشرفته DNNs (به طور متوسط دقت 82.56 درصد بالا بازیگر). این به ما ارائه ابزار موثر برای افشای deepfakes که خودکار و جمعی تولید شده توسط هوش مصنوعی الگوریتم. اما ما نیاز به دقت و توجه در خواندن این نتایج. اگر چه سازمان را ساخته اند خود را به بهترین تلاش برای شبیه سازی شرایطی که deepfake ویدئوها مستقر هستند در زندگی واقعی هنوز هم وجود دارد یک اختلاف معنی داری بین عملکرد در ارزیابی مجموعه داده ها و یک مجموعه داده واقعی; زمانی که تست شده بر روی نهان ویدئوها بالا اجرا دقت کاهش می یابد به 65.18 درصد است.

علاوه بر این همه راه حل ها بر اساس هوشمندانه طرح DNNs و اطلاعات augmentations اما ارائه بینش کمی فراتر از “جعبه سیاه”–نوع طبقه بندی الگوریتم های. این تشخیص نتایج را منعکس نمی واقعی تشخیص عملکرد الگوریتم در یک deepfake تصویری به خصوص آنهایی که شده دستی پردازش و کامل پس از تولید از الگوریتمهای هوش مصنوعی. از جمله “گردد” deepfake ویدئوها بیشتر احتمال دارد به علت آسیب واقعی و دقیق دستی پردازش پست می تواند به کاهش و یا حذف آثار که تشخیص الگوریتم های مبتنی بر.

DEEPFAKES و انتخابات

تکنولوژی ساخت deepfakes است که در اختیار کاربران عادی وجود دارد کاملا چند نرم افزار ابزار آزادانه در دسترس در GitHub از جمله FakeApp, DFaker, faceswap-GAN, faceswap و DeepFaceLab—بنابراین آن را سخت به تصور کنید که این فن آوری می توان در مبارزات سیاسی و مهم دیگر رویدادهای اجتماعی. اما آیا ما می رویم به دیدن هر شکل deepfake ویدئوها در انتخابات آینده خواهد بود تا حد زیادی تعیین شده توسط non-ملاحظات فنی. یکی از عوامل مهم هزینه شده است. ایجاد deepfakes البته خیلی ساده تر از همیشه قبل از, هنوز هم نیاز به زمان و منابع و مهارت است.

در مقایسه با دیگر ارزان تر روش به دروغ (به عنوان مثال repurposing یک تصویر موجود و یا تصویری به زمینه های مختلف), deepfakes هنوز هم گران و ناکارآمد فن آوری است. یکی دیگر از عوامل است که deepfake ویدئوها معمولا می تواند به راحتی در معرض توسط صلیب-منبع واقعیت-چک کردن و در نتیجه قادر به ایجاد اثرات طولانی مدت. با این وجود ما هنوز هم باید آگاه گردد deepfake ویدئوها مورد استفاده در گسترده کمپین دروغ و یا مستقر در یک زمان خاص (به عنوان مثال در عرض چند ساعت پس از رای گیری) به علت کوتاه مدت هرج و مرج و ابهامات است.

آینده تشخیص

رقابت بین ساخت و تشخيص deepfakes به پایان خواهد رسید و در آینده قابل پیش بینی. ما را ببینید deepfakes است که آسان تر به واقعی تر و سخت تر برای تشخیص. فعلی تنگنا در فقدان جزئیات در سنتز خواهد شد با غلبه بر ترکیب با گن مدل. آموزش و تولید زمان کاهش خواهد یافت و با پیشرفت در سخت افزار و در سبک وزن شبکه عصبی سازه. در چند ماه گذشته ما شاهد الگوریتم های جدید است که قادر به ارائه یک سطح بسیار بالاتر از واقع گرایی و یا اجرا در نزدیکی زمان واقعی است. آخرین قالب deepfake ویدئوها را فراتر از ساده مبادله صورت به کل سر سنتز (سر خیمهشب بازی) مشترک سمعی و بصری سنتز (talking heads) و حتی کل بدن سنتز.

بعلاوه اصلی deepfakes تنها به معنای احمق چشم انسان اما به تازگی وجود دارد اقدامات لازم برای آنها را نیز غیر قابل تشخیص برای تشخیص الگوریتم به عنوان به خوبی. این اقدامات شناخته شده به عنوان counter-پزشکی قانونی امکان استفاده از شکنندگی عمیق شبکه های عصبی با اضافه کردن هدف نامرئی “سر و صدا” به تولید deepfake تصویری برای گمراه کردن مبتنی بر شبکه های عصبی آشکارساز.

برای مقابله با تهدید ناشی از به طور فزاینده پیچیده deepfakes تکنولوژی تشخیص نیز نیاز به نگه دارید تا با سرعت. به عنوان ما سعی می کنیم برای بهبود کلی تشخیص عملکرد تاکید نیز باید قرار داده در افزایش استحکام تشخیص روش برای فشرده سازی ویدیو, رسانه های اجتماعی شویی و دیگر مشترک پس از پردازش عملیات و همچنین عمدی counter-پزشکی قانونی عملیات. از سوی دیگر با توجه به سرعت انتشار و رسیدن به رسانه های آنلاین و حتی موثر ترین روش تشخیص خواهد شد تا حد زیادی عمل در یک postmortem, مد, قابل اجرا تنها پس از deepfake ویدئوها پدیدار شود.

ما نیز دیدن پیشرفت های بیش فعال روش برای محافظت از افراد از تبدیل شدن به قربانیان این حملات است. این را می توان با “مسمومیت” خواهد بود-داده های آموزشی به خرابکاری در روند آموزش از deepfake سنتز مدل. فن آوری است که اعتبار اصلی ویدئوها نامرئی با استفاده از نهان نگاری دیجیتال و یا کنترل ضبط خواهد شد و همچنین فعال توسعه برای تکمیل تشخیص و روش های حفاظت.

نیازی به گفتن نیست deepfakes نه تنها یک مشکل فنی و به عنوان جعبه پاندورا باز شده است, آنها در حال رفتن به ناپدید می شوند در آینده قابل پیش بینی. اما با ویژگی های بهبود در توانایی ما برای تشخیص آنها و افزایش آگاهی عمومی از مشکل ما می توانند یاد بگیرند به همکاری وجود داشته باشد با آنها و محدود کردن اثرات منفی آنها در آینده است.

tinyurlis.gdclck.ruulvis.netshrtco.de