
دیپ فیک (Deepfake) یا جعل عمیق، فناوری ترکیب و قرار دادن صوت و تصویر بر روی تصاویر یا فیلمهای مورد نظر با استفاده از تکنیک یادگیری ماشین تحت عنوان “شبکه مشارکتی مولد” (GAN) بوده، به نحوی که گویی ترکیب هر دو در یک صحنه رخ داده است [1]. این ترکیب پیچیده میتواند یک فرد یا افراد را در حال گفتن حرفها و یا انجام اقداماتی مثل حضور در فیلم های غیر اخلاقی، نشان دهد که هرگز در واقعیت رخ ندادهاند؛ این ویدئوها حتی میتوانند تصویر فرد را در رویدادهای سیاسی و مجرمانه از جمله صحنههای قتل، سرقت و غیره قرار دهند و روزبهروز تشخیص جعلی بودن آنها سختتر میشود [2]. حتی در این زمینه ابزارهایی نیز ساخته شدهاند تا فرآیند ساخت چنین ویدئوهایی سادهتر شود؛ بهعنوان نمونه میتوان به موتور جستجویی اشاره کرد که تصویر اشخاص عادی جامعه را دریافت میکند و براساس آن شبیهترین بازیگر را پیشنهاد میدهد تا از ویدئوهای وی برای ساخت محتوای غیراخلاقی دروغین با چهره فرد موردنظر استفاده نماید [3].
متأسفانه گسترش این موضوع باعث شده تا عدهای از این راه کسب درآمد کنند. در انجمنهای اینترنتی، عدهای بابت ساخت ویدئوهای غیراخلاقی از فرد موردنظرشان، قیمتهای بالایی پرداخت میکنند [4]. موضوع تأسفبرانگیز این است که هیچ قانون صریحی برای توسل قربانیان به آن، فعلا تدوین نشده است. فرای نگرانیها درباره حریم خصوصی، متخصصان پیشبینی میکنند که دیپفیک در آینده نزدیک به یکی از بزرگترین خطرها برای دموکراسی و امنیت ملی کشورها تبدیل شود [3]. بهعنوان نمونه، رقبا و دشمنان آمریکا میتوانند با ساخت تصاویر، ویدئو و فایلهای صوتی جعلی، در انتخابات پیشرو تأثیر بگذارند.
گسترش استفاده از دیپفیک، نه تنها اطلاعات نادرست را در سطح جامعه گسترش میدهد بلکه پذیرش حقیقت را نیز توسط افراد به امری سخت و ناممکن تبدیل میسازد [5]. تصور کنید شبکههای اجتماعی پر از ویدئوهای جعلی و دروغین باشد، رهبران سیاسی کشورها حرفهای پیشین خود را تکذیب کنند و افراد جامعه همواره نگرانی سوءاستفاده از تصاویرشان را با خود بههمراه داشته باشند. در این صورت با جامعهای بیمار و بدگمان روبهرو خواهیم شد که به همهچیز مشکوک است، سخنان رهبرانش را باور ندارد و از آن سو رهبران سیاسی کشورها نیز بهسادگی و با پناهبردن به واژه دیپفیک، نهتنها هیچ انتقادی را نمیپذیرند بلکه حرفهای واقعی خود را نیز تکذیب میکنند تا از زیرِ بار مسئولیت شانه خالی کنند. در چنین جامعه یا بهتر است بگوییم چنین جهانی، دیگر مرزی بین حقیقت و دروغ باقی نمیماند، «اعتماد» به واژهای مضحک تبدیل میشود و دروغ، خوراک روزانه همگان خواهد شد.
جهت جعل با کیفیت چهره، دیپفیک به داشتن چندصد تصویر از حالات مختلف چهره هدف نیاز دارد [6]. به منظور جابجایی چهره، مجموعه دادههای چهره هدف و ویدئو مقصد مورد نیاز است و این یکی از دلایلی است که اشخاص معروف و سیاستمداران بیشتر در خطر هستند و با سادگی با جستجویی سریع در اینترنت می توان تمام دادههای مورد نیاز را بهدست آورد. حتی نبود این تعداد تصویر و زوایا نیز باز هم می تواند مورد استفاده دیپفیک قرار گیرد با روشهایی همانند کشیدن تصاویر و فریمهای چندگانه می توان شکافها را پر کرد.
نمی توان راهکارهایی به طور کامل امن برای مقابله با دیپفیکها پیدا کرد ولی میتوان با آگاهسازی عموم از پیامدهای جعل عمیق، راهکارهایی را به آنها توصیه نمود از جمله اینکه حتیالامکان از ارسال بی مورد تصاویر در شبکههای اجتماعی خودداری کنند و یا در عکسها و فیلمهای کسانی که نمیشناسند حضور نیابند یا اگر ناچارند صورت خود را به نحوی دور از دید دوربین نگه دارند. برخی از راهکارهای تشخیص دیپفیک عبارتند از:
- جستجوی معکوس تصویر: اگر دیپفیک با استفاده از تصویر دیگری در جایی در اینترنت ایجاد شد، با این فرض که دیپفیک اغلب توسط یک الگوریتم، از عکسهای ثابت جمعآوری میشود، با پیدا کردن نسخه اصلی تصویر و حتی تصویر کوچکِ مشابه از نوار ویدئویی، میتوان متوجه جعل یا واقعی بودن فیلم شد. در فیلم جعلی، فرد کمتر پلک میزند و صورت افراد معمولا به طور کامل ترجمه نمیشود. در نتیجه تصاویر جعلی، بسیاری از حالات قابل مشاهده در چهره افراد در حالت عادی از جمله احساسات، اضطراب و عصبانیت را کمتر القا میکنند.
- روش تکنیکی و پیچیدهتر برای تشخیص جعل عمیق، حتی در صورت عدم وجود تصویر مشابه، مقایسه نشانگرهای فیزیولوژیکی فرد از جمله مقایسه پالس عنبیه سوژه با پالس یک نقطه از گردن او است که در صورت عدم تطابق آنها، جعلی بودن تصویر قابل تشخیص است.
برخی شیوههای پیگیری و مواجهه با دیپفیک عبارتند از:
- شکایت از خالق جعل عمیق تحت یکی از قوانین حریم خصوصی: این قوانین معیارهای مختلفی دارند. به عنوان مثال، اساسنامه آزار جنسی، سوءاستفاده خانگی، قوانین مربوط به تبلیغات سایبری و غیره. که کاربردیترین نمونه این قوانین false light[۱] است. بر این اساس، شاکی باید ثابت کند که جعل عمیق برای او شرم آور یا توهین آمیز بوده است. حتی قربانی میتواند در برابر انتشار جعل عمیق حکم قضایی بگیرد تا نمونههای جعل عمیق را از اینترنت حذف یا دسترسی به آن را محدود کند.
- استفاده از حق کپیرایت: از آنجا که مردم عموماً برای عکسهای شخصی خود حق کپیرایت اتخاذ نمیکنند، قانون کپیرایت راه حل مناسبی برای مقابله با جعل عمیق محسوب نمیشود، به خصوص که حق کپیرایت معمولا به صاحب اثر و نه سوژهی آن تعلق میگیرد. با این حال، در صورتی که بتوان تصویر یا ویدئوی منشا جعل عمیق را تشخیص داد و صاحب کپیرایت نیز حاضر به شکایت باشد، این قانون تاثیرگذار است.
- استفاده از ماده 17 آئین نامه حفاظت از دادههای عمومی اتحادیه اروپا (GDPR): این قانون با عنوان «حق حذف» میتواند برای کمک به قربانیان جعل عمیق ساکن اروپا مورد استفاده قرار گیرد. سوژهی جعل عمیق اجازه دارد درخواست کند تا سازنده یا ناشر جعل عمیق دیتای مربوط به او را حذف کند.
- استفاده از ماده 21 آییننامه GDPR: در اروپا در شرایطی که از جعل عمیق برای اهداف بازاریابی و تحقیقاتی استفاده شود میتوان از این قانون جهت پیگیری حقوق و منافع پایمال شده بهره برد.
- استفاده از قوانین مربوط به حق تبلیغ و سوء استفاده از حریم خصوصی: اگر از جعل عمیق برای تبلیغ یک محصول یا خدمت استفاده شود، قربانی می تواند از سوء استفاده حریم خصوصی یا حق تبلیغ استفاده کند. بر این اساس، شاکی می تواند علاوه بر سایر خسارات قانونی و تنبیهی، سودهای حاصل از استفاده تجاری از تصویر خود را پس بگیرد.
- رعایت استانداردهای نظارتی حداقلی در برابر محتوای شخص ثالث در وبسایتها و شبکههای اجتماعی نظیر یوتیوب، پینترست، فیسبوک و غیره: این شرکتها به جای مصونیت کامل در برابر محتوای شخص ثالث، میتوانند استانداردهای نظارتی حداقلی را رعایت کنند. البته این شرکتها توسط دادگاه، قابل مجازات هستند و از قوانین جزایی یا ایالتی نیز مستثنی نبوده و امکان توسعه و اجرای آزادانهی راهحلهای نظارت بر جعل عمیق برای آنان فراهم است. این نوع نظارت را میتوان با ایجاد مسئولیت برای این وبسایتها و شبکهها ایجاد کرد؛
الگوریتمها و نرمافزارهای متعددی در ایجاد دیپفیک و حتی تشخیص آن توسط استارتاپهایی با عنوان “فکتچکینگ” موجود است ولی نمونههای توسعهیافته با قابلیت بهرهبرداری حرفهای به صورت انحصاری در کشورهای چین و روسیه وجود دارد که تا به حال بکارگیری نشده است. البته فناوری جعل عمیق کاربردهای قانونی نیز دارد، به خصوص در فیلمها که از آن برای قرار دادن چهره بازیگر روی بدن بدل و یا رتوش چهره استفاده میشود.
منابع
[1]https://internet.sums.ac.ir/page-amarprint/fa/1/printskin-dorsaetoolsenews/7223
[3] https://www.zoomit.ir/2019/7/4/337104/everything-about-deep-fake/
[4] https://techtimes.ir/news/5813/
[6]http://www.cyberpolice.ir/sites/default/files/1398-04/book-dyp-fyk-deepfake-j%60l-%60myq.pdf