خانه » مقالات » دیپ فیک: به چشمان خود هم اعتماد نکنید
دیپ فیک: به چشمان خود هم اعتماد نکنید
یکشنبه, ۲ مرداد ۱۳۹۹
زمان تقریبی مطالعه ۱۶ دقیقه

دیپ فیک (Deepfake) یا جعل عمیق، فناوری ترکیب و قرار دادن صوت و تصویر بر روی تصاویر یا فیلم‌های مورد نظر با استفاده از تکنیک یادگیری ماشین تحت عنوان “شبکه مشارکتی مولد” (GAN) بوده، به نحوی که گویی ترکیب هر دو در یک صحنه رخ داده است [1]. این ترکیب پیچیده می‌تواند یک فرد یا افراد را در حال گفتن حرف‌ها و یا انجام اقداماتی مثل حضور در فیلم های غیر اخلاقی، نشان دهد که هرگز در واقعیت رخ نداده‌اند؛ این ویدئو­ها حتی می­‌توانند تصویر فرد را در رویدادهای سیاسی و مجرمانه از جمله صحنه­‌های قتل، سرقت و غیره قرار دهند و روز­به‌­روز تشخیص جعلی بودن آن­ها سخت‌­تر می‌­شود [2]. حتی در‌ این‌ زمینه ابزارهایی نیز ساخته شده‌اند تا فرآیند ساخت چنین ویدئو‌هایی ساده‌تر شود؛ به‌عنوان‌ نمونه می‌توان به موتور جستجویی اشاره کرد که تصویر اشخاص عادی جامعه را دریافت می‌کند و براساس آن شبیه‌ترین بازیگر را پیشنهاد می‌دهد تا از ویدئو‌های وی برای ساخت محتوای غیراخلاقی دروغین با چهره فرد موردنظر استفاده نماید [3].
متأسفانه گسترش این موضوع باعث شده تا عده‌ای از این راه کسب درآمد کنند. در انجمن‌های اینترنتی، عده‌ای بابت ساخت ویدئو‌های غیراخلاقی از فرد موردنظرشان، قیمت‌های بالایی پرداخت می‌کنند [4]. موضوع تأسف‌برانگیز این است که هیچ قانون صریحی برای توسل قربانیان به آن، فعلا تدوین نشده است. فرای نگرانی‌ها درباره حریم‌ خصوصی، متخصصان پیش‌بینی می‌کنند که دیپ‌فیک در آینده نزدیک به یکی از بزرگ‌ترین خطر‌ها برای دموکراسی و امنیت ملی کشورها تبدیل شود [3]. به‌عنوان‌ نمونه، رقبا و دشمنان آمریکا می‌توانند با ساخت تصاویر، ویدئو‌ و فایل‌های صوتی جعلی، در انتخابات پیش‌رو تأثیر بگذارند.
گسترش استفاده از دیپ‌­فیک، نه‌ تنها اطلاعات نادرست را در سطح جامعه گسترش می‌دهد بلکه پذیرش حقیقت را نیز توسط افراد به امری سخت و ناممکن تبدیل می‌سازد [5]. تصور کنید شبکه‌های اجتماعی پر از ویدئو‌های جعلی و دروغین باشد، رهبران سیاسی کشور‌ها حرف‌های پیشین خود را تکذیب کنند و افراد جامعه همواره نگرانی سوءاستفاده از تصاویرشان را با‌ خود به‌همراه داشته باشنددر‌ این‌ صورت با جامعه‌ای بیمار و بدگمان رو‌به‌رو خواهیم شد که به‌ همه‌چیز مشکوک است، سخنان رهبرانش را باور ندارد و از آن‌ سو رهبران سیاسی کشور‌ها نیز به‌سادگی و با پناه‌بردن به واژه‌ دیپ‌فیک، نه‌تنها هیچ انتقادی را نمی‌پذیرند بلکه حرف‌های واقعی خود را نیز تکذیب می‌کنند تا از زیرِ بار مسئولیت شانه خالی کنند. در چنین جامعه یا بهتر است بگوییم چنین جهانی، دیگر مرزی بین حقیقت و دروغ باقی نمی‌ماند، «اعتماد» به واژه‌ای مضحک تبدیل می‌شود و دروغ، خوراک روزانه همگان خواهد شد.
جهت جعل با کیفیت چهره، دیپ­‌فیک به داشتن چند­صد تصویر از حالات مختلف چهره هدف نیاز دارد [6]. به منظور جابجایی چهره، مجموعه داده­‌های چهره هدف و ویدئو مقصد مورد نیاز است و این یکی از دلایلی است که اشخاص معروف و سیاستمداران بیشتر در خطر هستند و با سادگی با جستجویی سریع در اینترنت می توان تمام داده‌­های مورد نیاز را به‌دست آورد. حتی نبود این تعداد تصویر و زوایا نیز باز هم می تواند مورد استفاده دیپ­‌فیک قرار گیرد با روش­‌هایی همانند کشیدن تصاویر و فریم‌های چندگانه می توان شکاف‌ها را پر کرد.
نمی توان راهکارهایی به طور کامل امن برای مقابله با دیپ‌­فیک‌ها پیدا کرد ولی می‌­توان با آگاه‌­سازی عموم از پیامدهای جعل عمیق، راهکارهایی را به آن‌ها توصیه نمود از جمله اینکه حتی‌­الامکان از ارسال بی مورد تصاویر در شبکه‌های اجتماعی خودداری کنند و یا در عکس‌­ها و فیلم‌های کسانی که نمی‌شناسند حضور نیابند یا اگر ناچارند صورت خود را به نحوی دور از دید دوربین نگه دارند. برخی از راهکارهای تشخیص دیپ­‌فیک عبارتند از:

  • جستجوی معکوس تصویر: اگر دیپ‌­فیک با استفاده از تصویر دیگری در جایی در اینترنت ایجاد شد، با این فرض که دیپ‌­فیک اغلب توسط یک الگوریتم، از عکس‌های ثابت جمع­‌آوری می­‌شود، با پیدا کردن نسخه اصلی تصویر و حتی تصویر کوچکِ مشابه از نوار ویدئویی، می‌­توان متوجه جعل یا واقعی بودن فیلم شد. در فیلم جعلی، فرد کمتر پلک می‌­زند و صورت افراد معمولا به طور کامل ترجمه نمی­‌شود. در نتیجه تصاویر جعلی، بسیاری از حالات قابل مشاهده در چهره افراد در حالت عادی از جمله احساسات، اضطراب و عصبانیت را کمتر القا می‌کنند.
  • روش­ تکنیکی و پیچیده‌تر برای تشخیص جعل عمیق، حتی در صورت عدم وجود تصویر مشابه، مقایسه نشانگرهای فیزیولوژیکی فرد از جمله مقایسه پالس عنبیه سوژه با پالس یک نقطه از گردن او است که در صورت عدم تطابق آن­‌ها، جعلی بودن تصویر قابل تشخیص است.

برخی شیوه­‌های پیگیری و مواجهه با دیپ‌­فیک عبارتند از:

  1. شکایت از خالق جعل عمیق تحت یکی از قوانین حریم خصوصی: این قوانین معیارهای مختلفی دارند. به عنوان مثال، اساس‌نامه آزار جنسی، سوءاستفاده خانگی، قوانین مربوط به تبلیغات سایبری و غیره. که کاربردی‌ترین نمونه این قوانین false light[۱] است. بر این اساس، شاکی باید ثابت کند که جعل عمیق برای او شرم آور یا توهین آمیز بوده است. حتی قربانی می‌تواند در برابر انتشار جعل عمیق حکم قضایی بگیرد تا نمونه‌های جعل عمیق را از اینترنت حذف یا دسترسی به آن را محدود کند.
  2. استفاده از حق کپی‌­رایت: از آن‌جا که مردم عموماً برای عکس‌های شخصی خود حق کپی‌رایت اتخاذ نمی‌کنند، قانون کپی‌رایت راه ­حل مناسبی برای مقابله با جعل عمیق محسوب نمی‌شود، به خصوص که حق کپی‌رایت معمولا به صاحب اثر و نه سوژه‌ی آن تعلق می‌گیرد. با این حال، در صورتی که بتوان تصویر یا ویدئوی منشا جعل عمیق را تشخیص داد و صاحب کپی‌رایت نیز حاضر به شکایت باشد، این قانون تاثیرگذار است.
  3. استفاده از ماده 17 آئین نامه حفاظت از داده‌های عمومی اتحادیه اروپا (GDPR): این قانون با عنوان «حق حذف» می­‌تواند برای کمک به قربانیان جعل عمیق ساکن اروپا مورد استفاده قرار گیرد. سوژه‌ی جعل عمیق اجازه دارد درخواست کند تا سازنده یا ناشر جعل عمیق دیتای مربوط به او را حذف کند.
  4. استفاده از ماده 21 آیین‌نامه GDPR: در اروپا در شرایطی که از جعل عمیق برای اهداف بازاریابی و تحقیقاتی استفاده شود می­‌توان از این قانون جهت پیگیری حقوق و منافع پایمال شده بهره برد.
  5. استفاده از قوانین مربوط به حق تبلیغ و سوء استفاده از حریم خصوصی: اگر از جعل عمیق برای تبلیغ یک محصول یا خدمت استفاده شود، قربانی می تواند از سوء استفاده حریم خصوصی یا حق تبلیغ استفاده کند. بر این اساس، شاکی می تواند علاوه بر سایر خسارات قانونی و تنبیهی، سودهای حاصل از استفاده تجاری از تصویر خود را پس بگیرد.
  6. رعایت استانداردهای نظارتی حداقلی در برابر محتوای شخص ثالث در وب­سایت­‌ها و شبکه­‌های اجتماعی نظیر یوتیوب، پینترست، فیس‌بوک و غیره: این شرکت­‌ها به جای مصونیت کامل در برابر محتوای شخص ثالث، می­‌توانند استانداردهای نظارتی حداقلی را رعایت کنند. البته این شرکت‌­ها توسط دادگاه، قابل مجازات هستند و از قوانین جزایی یا ایالتی نیز مستثنی نبوده و امکان توسعه‌ و اجرای آزادانه‌ی راه‌حل‌های نظارت بر جعل عمیق برای آنان فراهم است. این نوع نظارت را می‌توان با ایجاد مسئولیت برای این وب­سایت‌ها و شبکه­‌ها ایجاد کرد؛

الگوریتم‌­ها و نر‌م‌­افزارهای متعددی در ایجاد دیپ‌­فیک و حتی تشخیص آن توسط استارتاپ‌­هایی با عنوان “فکت­چکینگ” موجود است ولی نمونه­‌های توسعه‌­یافته با قابلیت بهره­‌برداری حرف‌ه­ای به صورت انحصاری در کشورهای چین و روسیه وجود دارد که تا به حال بکارگیری نشده است. البته فناوری جعل عمیق کاربردهای قانونی نیز دارد، به خصوص در فیلم‌ها که از آن برای قرار دادن چهره بازیگر روی بدن بدل و یا رتوش چهره استفاده می‌شود.

منابع

[1]https://internet.sums.ac.ir/page-amarprint/fa/1/printskin-dorsaetoolsenews/7223

[2]https://www.asriran.com/fa/news/673335/%D8%AF%DB%8C%D9%BE-%D9%81%DB%8C%DA%A9-deepfake-%DA%86%DB%8C%D8%B3%D8%AA

[3] https://www.zoomit.ir/2019/7/4/337104/everything-about-deep-fake/

[4] https://techtimes.ir/news/5813/

[5] http://monaghesatiran.ir

[6]http://www.cyberpolice.ir/sites/default/files/1398-04/book-dyp-fyk-deepfake-j%60l-%60myq.pdf

سایر مقالات