جعل عمیق - ویکی‌پدیا، دانشنامهٔ آزاد

یک مثال از جعل عمیق: تصویر چهره بازیگری به نام امی آدامز در تصویر اصلی (سمت چپ) طوری تغییر داده شده‌است که صورت او مشابه نیکولاس کیج (تصویر سمت راست) دیده شود.

دیپ فیک یا جعل عمیق، ترکیبی از کلمه‌های «یادگیری عمیق» و «جعلی»،[۱] یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.[۲] جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد و از یک تکنیک یادگیری ماشین به نام «شبکه‌های زایای دشمنگونه» (GAN) استفاده می‌کند.[۳] ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است.

برای مثال چنین فیلم‌های تقلبی‌ای می‌تواند فرد را در حال انجام اقدامات جنسی نشان دهد که هرگز در آن شرکت نکرده‌است یا می‌تواند برای تغییر کلمات یا حرکات یک سیاستمدار مورد استفاده قرار گیرد تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاورده‌است.[۴] به دلیل این قابلیت‌ها، جعل عمیق می‌تواند برای ایجاد فیلم‌های پورن افراد مشهور، پورن انتقامی، اخبار جعلی و کلاهبرداری‌های مخرب استفاده شود.[۵][۶]

تاریخ[ویرایش]

دستکاری عکس در قرن نوزدهم توسعه یافت و به زودی در تصاویر متحرک اعمال شد. فناوری به‌طور پیوسته در طول قرن بیستم بهبود یافت و با ظهور ویدیوهای دیجیتال سریعتر شد.

فناوری دیپ‌فیک توسط محققان در موسسات دانشگاهی از دهه ۱۹۹۰ و بعداً توسط آماتورها در جوامع آنلاین توسعه یافته‌است.[۷][۸] اخیراً این روش‌ها توسط صنعت پذیرفته شده‌است.

پورنوگرافی[ویرایش]

در سال ۲۰۱۷ پورنوگرافی توسط جعل عمیق در اینترنت و به ویژه در ردیت، نمایان شد و سپس سایت‌هایی مثل ردیت، توئیتر و پورن‌هاب آن را ممنوع کردند.[۹][۱۰][۱۱] در پاییز ۲۰۱۷ یک کاربر ناشناس ردیت تحت نام مستعار "Deepfakes" چندین فیلم پورن را در اینترنت منتشر کرد. اولین فیلمی که جلب توجه کرد، جعل عمیقی برای دیزی ریدلی بود. این فیلم یکی از شناخته شده‌ترین فیلم‌های جعل عمیق و بخش اصلی چندین مقاله بود. جعل عمیق همچنین بازیگر فیلم زن شگفت‌انگیز، گل گدوت، را در حال داشتن رابطه جنسی با برادر نانتی اش، به جای اما واتسون، کیتی پری، تیلور سوئیفت یا اسکارلت جوهانسون شبیه‌سازی کرد. مدتی بعد نادرستی این صحنه‌های غیر واقعی -که توسط هوش مصنوعی ایجاد شده بودند- افشا شد.

با گذشت زمان، انجمن Reddit بسیاری از اشکالات را در فیلم‌های جعلی برطرف کرد و این موضوع باعث شد که تشخیص محتوای تقلبی از اصلی سخت شود. عکس‌ها و فیلم‌های غیر پورنوگرافیک بازیگران، که به صورت آنلاین به راحتی در دسترس هستند، به عنوان داده‌های آموزشی در نرم‌افزار استفاده شد. پدیده جعل عمیق برای اولین بار در دسامبر ۲۰۱۷ در بخش فنی و علمی مجله Vice گزارش و در نهایت به صورت گسترده در سایر رسانه‌ها نیز منتشر شد.[۱۲][۱۳]

در دسامبر ۲۰۱۸، اسکارلت جوهانسون، به عنوان شخص تکرار شونده در جعل عمیق، به‌طور عمومی در مورد موضوعی در روزنامه The Washington Post صحبت کرد. او در یک بیانیه آماده، در مورد این پدیده ابراز نگرانی کرد و گفت اینترنت، کرمچاله ای عظیم از تاریکی است که خودش را می‌خورد. با این حال، او اظهار کرد که برای حذف هیچ‌یک از جعل عمیق‌هایش تلاشی نمی‌کند چون معتقد است که آن‌ها بر روی تصویر عمومی او تأثیری نمی‌گذارند و هم چنین وجود قوانین مختلف در کشورهای مختلف و ماهیت فرهنگ اینترنت هر گونه تلاش برای حذف جعل عمیق را تبدیل به حرکتی شکست خورده می‌کند؛ او معتقد است که تا زمانی که افراد مشهور مانند خودش توسط شهرتشان محافظت می‌شوند، جعل عمیق تهدیدی جدی برای زنان برجسته است زیرا ممکن است آن‌ها با فریب خوردن در پورنوگرافی ناخواسته یا پورن انتقامی به شهرت خود صدمه بزنند.[۱۴]

در انگلستان تولیدکنندگان مواد جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواست‌هایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛[۱۵] در ایالات متحده، جایی که اتهاماتی مانند سرقت هویت، کمین اینترنتی و پورن انتقامی مورد انتقاد قرار گرفته شده‌است، مفهوم یک قانون جامع تر نیز مورد استفاده قرار گرفته‌است.[۱۶] افراد مشهور هدف اصلی چنین فیلم‌های جعلی جنسی هستند، اما برخی دیگر نیز تحت تأثیر قرار می‌گیرند.[۱۷][۱۸][۱۹]

تحقیقات دانشگاهی[ویرایش]

تحقیقات آکادمیک مربوط به دیپ‌فیک‌ها بین حوزه بینایی کامپیوتر، زیرشاخه‌ای از علوم کامپیوتر،[۲۰] تقسیم می‌شود که تکنیک‌هایی را برای ایجاد و شناسایی دیپ‌فیک‌ها توسعه می‌دهد، و رویکردهای علوم انسانی و علوم اجتماعی که پیامدهای اجتماعی، اخلاقی و زیبایی‌شناختی دیپ‌فیک را مطالعه می‌کنند.

تحقیقات علوم کامپیوتر در مورد دیپ فیک[ویرایش]

یک پروژه برجسته اولیه، برنامه Video Rewrite بود که در سال ۱۹۹۷ منتشر شد، که تصاویر ویدئویی موجود از صحبت کردن شخصی را تغییر داد تا آن شخص را در حال بیان کلمات موجود در یک آهنگ صوتی دیگر به تصویر بکشد.[۲۱] این اولین سیستمی بود که این نوع بازسازی چهره را کاملاً خودکار انجام داد و این کار را با استفاده از تکنیک‌های یادگیری ماشینی انجام داد تا بین صداهای تولید شده توسط سوژه ویدیو و شکل صورت سوژه ارتباط برقرار کند.

پروژه‌های دانشگاهی معاصر بر ایجاد ویدیوهای واقعی تر و بهبود تکنیک‌ها متمرکز شده‌اند.[۲۲][۲۳] برنامه "Synthesizing Obama" که در سال ۲۰۱۷ منتشر شد، فیلم ویدئویی باراک اوباما، رئیس‌جمهور سابق آمریکا را تغییر می‌دهد تا او را در حال بیان کلمات موجود در یک قطعه صوتی جداگانه به تصویر بکشد.[۲۲] این پروژه به عنوان یک پروژه تحقیقاتی‌ای که از تکنیک فوتورئالیستی خود برای تولید کردن اشکال دهان از صدا استفاده می‌کند، شمرده می‌شد.[۲۲] برنامه Face2Face که در سال ۲۰۱۶ منتشر شد، فیلم‌های ویدئویی از چهره یک فرد را به گونه ای تغییر می‌دهد که آنها را در حال تقلید از حالات چهره شخص دیگری در زمان واقعی به تصویر بکشد.[۲۳] این پروژه، به عنوان پروژه‌ای که اولین بار این روش را برای بازنمایی حالات چهره در زمان واقعی با استفاده از دوربینی که عمق را ثبت نمی‌کند، شمرده می‌شود و این امکان را برای انجام این تکنیک با استفاده از دوربین‌های رایج مصرف‌کننده فراهم می‌کند.

در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا، برکلی مقاله‌ای را منتشر کردند که در آن یک برنامه رقص تقلبی را معرفی کردند که می‌تواند تصوری از توانایی رقصیدن استادانه با استفاده از هوش مصنوعی ایجاد کند.[۲۴][۲۵] این پروژه کاربرد دیپ فیک را در کل بدن گسترش می‌دهد. کارهای قبلی روی سر یا قسمت‌هایی از صورت متمرکز شده بود.

محققان همچنین نشان داده‌اند که دیپ فیک در حال گسترش به حوزه‌های دیگری مانند دستکاری تصاویر پزشکی است. در این کار، نشان داده شد که چگونه یک مهاجم می‌تواند به‌طور خودکار سرطان ریه را در سی تی اسکن سه بعدی بیمار اضافه یا حذف کند. نتیجه آنقدر قانع کننده بود که سه رادیولوژیست و یک هوش مصنوعی-پیشرفته تشخیص-سرطان-ریه را فریب داد. برای نشان دادن تهدید، نویسندگان با موفقیت در آزمایش نفوذ کلاه سفید، حمله به بیمارستان را انجام دادند.

سیاست[ویرایش]

جعل عمیق برای بد جلوه دادن سیاستمداران مشهور در پورتال‌های ویدیویی یا چت روم‌ها استفاده می‌شود. برای مثال، چهرهٔ رئیس‌جمهور آرژانتین مائوریسیو ماکری با چهرهٔ آدولف هیتلر و چهرهٔ آنجلا مرکل با دونالد ترامپ جایگزین شد.[۲۶][۲۷] در آوریل ۲۰۱۸، جردن پیل و جونا پرتی جعل عمیقی درست کردند که در آن از باراک اوباما به عنوان یک آگهی خدمات عمومی دربارهٔ خطر جعل عمیق استفاده شده بود.[۲۸] در ماه ژانویه سال ۲۰۱۹، KCPQ جعل عمیقی از ترامپ، در طول سخنرانی اش منتشر کرد که در حال تمسخر ظاهر و رنگ پوستش بود.[۲۹]

نرم‌افزار جعل عمیق[ویرایش]

در ژانویه ۲۰۱۸ یک برنامه دسکتاپ به نام FakeApp راه اندازی شد. این برنامه به کاربران اجازه می‌دهد تا به آسانی فیلم‌ها را با چهره‌هایی مختلف ایجاد کرده و به اشتراک بگذارند. این برنامه از یک شبکه عصبی مصنوعی، قدرت پردازنده گرافیکی و سه تا چهار گیگابایت فضای ذخیره‌سازی برای تولید ویدیو جعلی استفاده می‌کند. برای اطلاعات دقیق، برنامه نیاز به مقدار زیادی مواد بصری از فرد نیاز دارد تا بفهمد که کدام جنبه‌های تصویر، با استفاده از الگوریتم یادگیری عمیق و توالی ویدئوها و عکس‌ها، باید تغییر کند.

TensorFlow frame work

این نرم‌افزار از فریم ورک تنسورفلو گوگل استفاده می‌کند که برای برنامه DeepDream هم مورد استفاده قرار گرفته بود. در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا برکلی مقاله ای را برای معرفی یک برنامه رقص جعلی منتشر کردند که می‌تواند با استفاده از هوش مصنوعی یک کودک را با یک رقصنده متخصص جایگزین کند.[۳۰][۳۱]

جعل عمیق در داستان[ویرایش]

پدیده جعل عمیق و پورنوگرافی افراد مشهور در رمان Epiphany Jones توسط مایکل گروثوس مورد بررسی قرار گرفته‌است.[۳۲] این رمان یک تریلر ادبی، طنز اجتماعی و کمدی تاریک دربارهٔ عقده‌های روحی همراه با رابطه جنسی، شهرت و اینترنت است. این رمان به بررسی موارد زیر می‌پردازد: رابطه ناخواسته معتاد پورنوگرافی با یک زن را که فکر می‌کند می‌تواند با خدا صحبت کند و درگیر شدن با کاسبان جنسی که به نخبگان هالیوود خدمت می‌کنند. شخصیت اصلی داستان، جری درزن، از اعتیاد به پورنوگرافی جعلی افراد مشهور رنج می‌برد. جعلهای افراد مشهور خاص در این رمان ذکر شده که عبارتند از ناتالی پورتمن، اسکارلت جوهانسون، هالی بری، آنجلینا جولی، کیت بکینزیل و عروسک‌های Pussycat. علاوه بر این، جعل افراد مشهور فوت شده از جمله جودی گارلند و آدری هپبورن نیز در رمان ذکر شده‌است.

توسعه[ویرایش]

توسعه تجاری[ویرایش]

در ژانویه ۲۰۱۸، یک برنامه دسکتاپ اختصاصی به نام فیک-اپ راه اندازی شد.[۳۳] این برنامه به کاربران این امکان را می‌دهد که به راحتی ویدیوهایی را با چهره‌هایشان که با یکدیگر عوض شده ایجاد و به اشتراک بگذارند. از سال ۲۰۱۹، FakeApp توسط برنامه‌های منبع-بازمانند Faceswap, DeepFaceLab و برنامه‌های مبتنی بر وب مانند DeepfakesWeb.com[۳۴][۳۵][۳۶] جایگزین شده‌است.

شرکت‌های بزرگتر شروع به استفاده از دیپ فیک کردند. ویدیوهای آموزشی شرکتی را می‌توان با استفاده از آواتارهای دیپ فیک و صدای آنها ایجاد کرد، برای مثال Synthesia که از فناوری دیپ فیک با آواتارها برای ایجاد ویدیوهای شخصی‌سازی شده استفاده می‌کند. غول اپلیکیشن موبایل Momo اپلیکیشن Zao را ایجاد کرد که به کاربران این امکان را می‌دهد تا چهره خود را با یک عکس روی کلیپ‌های تلویزیونی و فیلم قرار دهند. از سال ۲۰۱۹، شرکت ژاپنی هوش مصنوعی DataGrid یک دیپ فیک تمام-بدن ساخته که می‌تواند یک فرد را از ابتدا ایجاد کند. آنها قصد دارند از اینها برای مد و پوشاک استفاده کنند.

انتقادات[ویرایش]

سوءاستفاده[ویرایش]

Aargauer Zeitung می‌گوید که دستکاری تصاویر و فیلم‌ها با استفاده از هوش مصنوعی می‌تواند تبدیل به یک پدیدهٔ توده ای خطرناک شود. با این حال، جعل تصاویر و فیلم‌ها حتی از ظهور نرم‌افزار ویرایش ویدئو و برنامه‌های ویرایش عکس، قدیمی تر است. در این مورد، واقع گرایی یک جنبه جدید است.[۲۶]

همچنین ممکن است از جعل عمیق برای کلاهبرداریهای هدفمند و پورن انتقامی استفاده شود.[۳۷][۳۸]

اثرات بر روی صحت و اعتبار[ویرایش]

اثر دیگری از جعل عمیق این است که دیگر مشخص نمی‌شود که محتوا هدفمند است (مانند طنز) یا واقعی است. الکس شامپاندارد، پژوهشگر AI، گفته‌است که همه باید بدانند که امروزه، با چه سرعتی همه چیز با این تکنولوژی خراب می‌شود و اینکه مشکل، فنی نیست بلکه یک مورد است که با اعتماد به اطلاعات و روزنامه‌نگاری حل می‌شود. مشکل اصلی این است که بشریت می‌تواند به دورانی برسد که دیگر نمی‌توان تعیین کرد که آیا رسانه‌های تصویری مطابق با حقیقت هستند یا خیر.[۲۶]

واکنش اینترنتی[ویرایش]

برخی از وبسایتها، مانند Twitter و Gfycat، اعلام کردند که محتوای جعل عمیق را حذف و ناشران آن را مسدود خواهند کرد. قبلاً، پلتفرم چت Discord، یک کانال چت با فیلم‌های پورن جعلی فرد مشهوری را مسدود کرده بود. وب سایت پورنوگرافی، Pornhub، همچنین قصد دارد تا چنین محتوایی را مسدود کند. با این حال، گزارش شده‌است که این سایت ممنوعیت آن را اعمال نکرده‌است.[۳۹][۴۰] در Reddit، این وضعیت در ابتدا ناواضح باقی ماند تا زمانی که زیرمجموعه آن در ۷ فوریه ۲۰۱۸ به علت نقض غیرقانونی پورنوگرافی غیرداوطلبانه، به حالت تعلیق درآمد.[۱۳][۴۱][۴۲][۴۳] در سپتامبر سال ۲۰۱۸، گوگل تصاویری از پورنوگرافی مصنوعی ناخواسته را به فهرست ممنوعیتش اضافه کرد و به همه اجازه داد تا ممنوعیت نتایج واقعی یا برهنگی‌های جعلی را درخواست کنند.[۴۴]

reddit logo

تشخیص جعل عمیق[ویرایش]

با گذشت زمان و پیشرفت تکنولوژی، تشخیص دیپ فیک هم سخت‌تر خواهد شد. در سال ۲۰۱۸ محققان آمریکایی کشف کردند که چهره‌های دیپ فیک به‌طور عادی پلک نمی‌زنند. تعجبی هم نیست چراکه بیشتر تصاویر افراد در شرایطی است که چشمان آن‌ها باز است و الگوریتم‌ها نمی‌توانند شرایط پلک زدن را یاد بگیرند. چندی نگذشت که این موضوع برطرف شد و دیپ فیک با قابلیت پلک زدن هم ایجاد شد. در ماهیت این بازی، هر زمانی که ضعف فناوری مشخص شود، راه حل آن هم خیلی سریع کشف می‌شود.[۴۵]

منابع[ویرایش]

  1. Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (به انگلیسی). Retrieved 2018-02-20.
  2. "Prepare, Don't Panic: Synthetic Media and Deepfakes". witness.org. Archived from the original on 2 December 2020. Retrieved 25 November 2020.
  3. Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (به انگلیسی). Retrieved 14 November 2018.
  4. "Prepare, Don't Panic: Synthetic Media and Deepfakes". witness.org. Archived from the original on 2 December 2020. Retrieved 25 November 2020.
  5. "Experts fear face swapping tech could start an international showdown". The Outline (به انگلیسی). Retrieved 2018-02-28.
  6. Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (به انگلیسی). ISSN 0362-4331. Retrieved 2018-03-24.
  7. Harwell, Drew (12 June 2019). "Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'". The Washington Post (به انگلیسی). Archived from the original on 31 October 2019. Retrieved 2019-11-08.
  8. Sanchez, Julian (8 February 2018). "Thanks to AI, the future of 'fake news' is being pioneered in homemade porn". NBC News (به انگلیسی). Archived from the original on 9 November 2019. Retrieved 2019-11-08.
  9. "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (به انگلیسی). Retrieved 2018-02-20.
  10. Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. Retrieved 2018-02-20.
  11. "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (به انگلیسی). Retrieved 2018-02-20.
  12. AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 2017-12-11
  13. ۱۳٫۰ ۱۳٫۱ Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online
  14. Harwell، Drew. «Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'» (به انگلیسی). Washington Post. شاپا 0190-8286. دریافت‌شده در ۲۰۲۰-۱۲-۲۴.
  15. Sabbagh، Dan؛ Ankel، Sophia (۲۰۱۸-۰۶-۲۱). «Call for upskirting bill to include 'deepfake' pornography ban» (به انگلیسی). The Guardian. شاپا 0261-3077. دریافت‌شده در ۲۰۲۰-۱۲-۲۴.
  16. https://www.washingtonpost.com/technology/2018/12/30/fake-porn-videos-are-being-weaponized-harass-humiliate-women-everybody-is-potential-target, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post. {{cite web}}: |access-date= requires |url= (help); External link in |last= (help); Missing or empty |url= (help)
  17. Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, archived from the original on 28 August 2019, retrieved 23 January 2019
  18. Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070
  19. heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien
  20. Harwell, Drew (12 June 2019). "Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'". The Washington Post (به انگلیسی). Archived from the original on 31 October 2019. Retrieved 2019-11-08.
  21. Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360. doi:10.1145/258734.258880.
  22. ۲۲٫۰ ۲۲٫۱ ۲۲٫۲ Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36 (4): 95:1–95:13. doi:10.1145/3072959.3073640.
  23. ۲۳٫۰ ۲۳٫۱ Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE: 2387–2395. arXiv:2007.14808. doi:10.1109/CVPR.2016.262. ISBN 978-1-4673-8851-1.
  24. Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepface dancing – just don't call it deepfake". Business Insider Australia (به انگلیسی). Archived from the original on 10 April 2019. Retrieved 2018-08-27.
  25. "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Archived from the original on 17 May 2019. Retrieved 2018-08-27.
  26. ۲۶٫۰ ۲۶٫۱ ۲۶٫۲ "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. Archived from the original on 13 April 2019. Retrieved 23 January 2019.
  27. Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". Archived from the original on 2018-10-11. Retrieved 2020-12-24.
  28. Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. Retrieved September 10, 2018.
  29. Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (به انگلیسی). Retrieved January 11, 2019.
  30. Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (به انگلیسی). Archived from the original on 10 April 2019. Retrieved 2018-08-27.
  31. "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Retrieved 2018-08-27.
  32. Chopin, Allison. "'Epiphany Jones' book review: Sex crimes and psychosis in darkly funny thriller - NY Daily News". nydailynews.com. Retrieved 2018-12-31.
  33. "What is a Deepfake and How Are They Made?". Online Tech Tips (به انگلیسی). 2019-05-23. Archived from the original on 8 November 2019. Retrieved 2019-11-08.
  34. "Deepfakes web | The best online faceswap app". Deepfakes web. Archived from the original on 14 July 2021. Retrieved 2021-02-21.
  35. "Faceswap is the leading free and Open Source multi-platform Deepfakes software". 15 October 2019. Archived from the original on 31 May 2021. Retrieved 14 July 2021.
  36. "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md). : iperov/DeepFaceLab". 19 June 2019. Archived from the original on 9 May 2019. Retrieved 6 March 2019.
  37. Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 2018-01-26, ISSN 0044-2070
  38. „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02
  39. "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (به انگلیسی). Retrieved 2018-04-21.
  40. "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (به انگلیسی). Retrieved 2018-04-21.
  41. barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos
  42. heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn".
  43. "Reddit verbannt Deepfake-Pornos".
  44. Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'".
  45. Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'".

پیوند به بیرون[ویرایش]