جعل عمیق
بخشی از مقالهها درباره |
هوش مصنوعی |
---|
دیپ فیک یا جعل عمیق، ترکیبی از کلمههای «یادگیری عمیق» و «جعلی»،[۱] یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.[۲] جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد و از یک تکنیک یادگیری ماشین به نام «شبکههای زایای دشمنگونه» (GAN) استفاده میکند.[۳] ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
برای مثال چنین فیلمهای تقلبیای میتواند فرد را در حال انجام اقدامات جنسی نشان دهد که هرگز در آن شرکت نکردهاست یا میتواند برای تغییر کلمات یا حرکات یک سیاستمدار مورد استفاده قرار گیرد تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاوردهاست.[۲] به دلیل این قابلیتها، جعل عمیق میتواند برای ایجاد فیلمهای پورن افراد مشهور، پورن انتقامی، اخبار جعلی و کلاهبرداریهای مخرب استفاده شود.[۴][۵]
تاریخ
[ویرایش]دستکاری عکس در قرن نوزدهم توسعه یافت و به زودی در تصاویر متحرک اعمال شد. فناوری بهطور پیوسته در طول قرن بیستم بهبود یافت و با ظهور ویدیوهای دیجیتال سریعتر شد.
فناوری دیپفیک توسط محققان در موسسات دانشگاهی از دهه ۱۹۹۰ و بعداً توسط آماتورها در جوامع آنلاین توسعه یافتهاست.[۶][۷] اخیراً این روشها توسط صنعت پذیرفته شدهاست.
پورنوگرافی
[ویرایش]در سال ۲۰۱۷ پورنوگرافی توسط جعل عمیق در اینترنت و به ویژه در ردیت، نمایان شد و سپس سایتهایی مثل ردیت، توئیتر و پورنهاب آن را ممنوع کردند.[۸][۹][۱۰] در پاییز ۲۰۱۷ یک کاربر ناشناس ردیت تحت نام مستعار "Deepfakes" چندین فیلم پورن را در اینترنت منتشر کرد. اولین فیلمی که جلب توجه کرد، جعل عمیقی برای دیزی ریدلی بود. این فیلم یکی از شناخته شدهترین فیلمهای جعل عمیق و بخش اصلی چندین مقاله بود. جعل عمیق همچنین بازیگر فیلم زن شگفتانگیز، گل گدوت، را در حال داشتن رابطه جنسی با برادر نانتی اش، به جای اما واتسون، کیتی پری، تیلور سوئیفت یا اسکارلت جوهانسون شبیهسازی کرد. مدتی بعد نادرستی این صحنههای غیر واقعی -که توسط هوش مصنوعی ایجاد شده بودند- افشا شد.
با گذشت زمان، انجمن Reddit بسیاری از اشکالات را در فیلمهای جعلی برطرف کرد و این موضوع باعث شد که تشخیص محتوای تقلبی از اصلی سخت شود. عکسها و فیلمهای غیر پورنوگرافیک بازیگران، که به صورت آنلاین به راحتی در دسترس هستند، به عنوان دادههای آموزشی در نرمافزار استفاده شد. پدیده جعل عمیق برای اولین بار در دسامبر ۲۰۱۷ در بخش فنی و علمی مجله Vice گزارش و در نهایت به صورت گسترده در سایر رسانهها نیز منتشر شد.[۱۱][۱۲]
در دسامبر ۲۰۱۸، اسکارلت جوهانسون، به عنوان شخص تکرار شونده در جعل عمیق، بهطور عمومی در مورد موضوعی در روزنامه The Washington Post صحبت کرد. او در یک بیانیه آماده، در مورد این پدیده ابراز نگرانی کرد و گفت اینترنت، کرمچاله ای عظیم از تاریکی است که خودش را میخورد. با این حال، او اظهار کرد که برای حذف هیچیک از جعل عمیقهایش تلاشی نمیکند چون معتقد است که آنها بر روی تصویر عمومی او تأثیری نمیگذارند و هم چنین وجود قوانین مختلف در کشورهای مختلف و ماهیت فرهنگ اینترنت هر گونه تلاش برای حذف جعل عمیق را تبدیل به حرکتی شکست خورده میکند؛ او معتقد است که تا زمانی که افراد مشهور مانند خودش توسط شهرتشان محافظت میشوند، جعل عمیق تهدیدی جدی برای زنان برجسته است زیرا ممکن است آنها با فریب خوردن در پورنوگرافی ناخواسته یا پورن انتقامی به شهرت خود صدمه بزنند.[۱۳]
در انگلستان تولیدکنندگان مواد جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواستهایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛[۱۴] در ایالات متحده، جایی که اتهاماتی مانند سرقت هویت، کمین اینترنتی و پورن انتقامی مورد انتقاد قرار گرفته شدهاست، مفهوم یک قانون جامع تر نیز مورد استفاده قرار گرفتهاست.[۱۵] افراد مشهور هدف اصلی چنین فیلمهای جعلی جنسی هستند، اما برخی دیگر نیز تحت تأثیر قرار میگیرند.[۱۶][۱۷][۱۸]
تحقیقات دانشگاهی
[ویرایش]تحقیقات آکادمیک مربوط به دیپفیکها بین حوزه بینایی کامپیوتر، زیرشاخهای از علوم کامپیوتر،[۶] تقسیم میشود که تکنیکهایی را برای ایجاد و شناسایی دیپفیکها توسعه میدهد، و رویکردهای علوم انسانی و علوم اجتماعی که پیامدهای اجتماعی، اخلاقی و زیباییشناختی دیپفیک را مطالعه میکنند.
تحقیقات علوم کامپیوتر در مورد دیپ فیک
[ویرایش]یک پروژه برجسته اولیه، برنامه Video Rewrite بود که در سال ۱۹۹۷ منتشر شد، که تصاویر ویدئویی موجود از صحبت کردن شخصی را تغییر داد تا آن شخص را در حال بیان کلمات موجود در یک آهنگ صوتی دیگر به تصویر بکشد.[۱۹] این اولین سیستمی بود که این نوع بازسازی چهره را کاملاً خودکار انجام داد و این کار را با استفاده از تکنیکهای یادگیری ماشینی انجام داد تا بین صداهای تولید شده توسط سوژه ویدیو و شکل صورت سوژه ارتباط برقرار کند.
پروژههای دانشگاهی معاصر بر ایجاد ویدیوهای واقعی تر و بهبود تکنیکها متمرکز شدهاند.[۲۰][۲۱] برنامه "Synthesizing Obama" که در سال ۲۰۱۷ منتشر شد، فیلم ویدئویی باراک اوباما، رئیسجمهور سابق آمریکا را تغییر میدهد تا او را در حال بیان کلمات موجود در یک قطعه صوتی جداگانه به تصویر بکشد.[۲۰] این پروژه به عنوان یک پروژه تحقیقاتیای که از تکنیک فوتورئالیستی خود برای تولید کردن اشکال دهان از صدا استفاده میکند، شمرده میشد.[۲۰] برنامه Face2Face که در سال ۲۰۱۶ منتشر شد، فیلمهای ویدئویی از چهره یک فرد را به گونه ای تغییر میدهد که آنها را در حال تقلید از حالات چهره شخص دیگری در زمان واقعی به تصویر بکشد.[۲۱] این پروژه، به عنوان پروژهای که اولین بار این روش را برای بازنمایی حالات چهره در زمان واقعی با استفاده از دوربینی که عمق را ثبت نمیکند، شمرده میشود و این امکان را برای انجام این تکنیک با استفاده از دوربینهای رایج مصرفکننده فراهم میکند.
در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا، برکلی مقالهای را منتشر کردند که در آن یک برنامه رقص تقلبی را معرفی کردند که میتواند تصوری از توانایی رقصیدن استادانه با استفاده از هوش مصنوعی ایجاد کند.[۲۲][۲۳] این پروژه کاربرد دیپ فیک را در کل بدن گسترش میدهد. کارهای قبلی روی سر یا قسمتهایی از صورت متمرکز شده بود.
محققان همچنین نشان دادهاند که دیپ فیک در حال گسترش به حوزههای دیگری مانند دستکاری تصاویر پزشکی است. در این کار، نشان داده شد که چگونه یک مهاجم میتواند بهطور خودکار سرطان ریه را در سی تی اسکن سه بعدی بیمار اضافه یا حذف کند. نتیجه آنقدر قانع کننده بود که سه رادیولوژیست و یک هوش مصنوعی-پیشرفته تشخیص-سرطان-ریه را فریب داد. برای نشان دادن تهدید، نویسندگان با موفقیت در آزمایش نفوذ کلاه سفید، حمله به بیمارستان را انجام دادند.
سیاست
[ویرایش]جعل عمیق برای بد جلوه دادن سیاستمداران مشهور در پورتالهای ویدیویی یا چت رومها استفاده میشود. برای مثال، چهرهٔ رئیسجمهور آرژانتین مائوریسیو ماکری با چهرهٔ آدولف هیتلر و چهرهٔ آنجلا مرکل با دونالد ترامپ جایگزین شد.[۲۴][۲۵] در آوریل ۲۰۱۸، جردن پیل و جونا پرتی جعل عمیقی درست کردند که در آن از باراک اوباما به عنوان یک آگهی خدمات عمومی دربارهٔ خطر جعل عمیق استفاده شده بود.[۲۶] در ماه ژانویه سال ۲۰۱۹، KCPQ جعل عمیقی از ترامپ، در طول سخنرانی اش منتشر کرد که در حال تمسخر ظاهر و رنگ پوستش بود.[۲۷]
نرمافزار جعل عمیق
[ویرایش]در ژانویه ۲۰۱۸ یک برنامه دسکتاپ به نام FakeApp راه اندازی شد. این برنامه به کاربران اجازه میدهد تا به آسانی فیلمها را با چهرههایی مختلف ایجاد کرده و به اشتراک بگذارند. این برنامه از یک شبکه عصبی مصنوعی، قدرت پردازنده گرافیکی و سه تا چهار گیگابایت فضای ذخیرهسازی برای تولید ویدیو جعلی استفاده میکند. برای اطلاعات دقیق، برنامه نیاز به مقدار زیادی مواد بصری از فرد نیاز دارد تا بفهمد که کدام جنبههای تصویر، با استفاده از الگوریتم یادگیری عمیق و توالی ویدئوها و عکسها، باید تغییر کند.
این نرمافزار از فریم ورک تنسورفلو گوگل استفاده میکند که برای برنامه DeepDream هم مورد استفاده قرار گرفته بود. در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا برکلی مقاله ای را برای معرفی یک برنامه رقص جعلی منتشر کردند که میتواند با استفاده از هوش مصنوعی یک کودک را با یک رقصنده متخصص جایگزین کند.[۲۸][۲۹]
جعل عمیق در داستان
[ویرایش]پدیده جعل عمیق و پورنوگرافی افراد مشهور در رمان Epiphany Jones توسط مایکل گروثوس مورد بررسی قرار گرفتهاست.[۳۰] این رمان یک تریلر ادبی، طنز اجتماعی و کمدی تاریک دربارهٔ عقدههای روحی همراه با رابطه جنسی، شهرت و اینترنت است. این رمان به بررسی موارد زیر میپردازد: رابطه ناخواسته معتاد پورنوگرافی با یک زن را که فکر میکند میتواند با خدا صحبت کند و درگیر شدن با کاسبان جنسی که به نخبگان هالیوود خدمت میکنند. شخصیت اصلی داستان، جری درزن، از اعتیاد به پورنوگرافی جعلی افراد مشهور رنج میبرد. جعلهای افراد مشهور خاص در این رمان ذکر شده که عبارتند از ناتالی پورتمن، اسکارلت جوهانسون، هالی بری، آنجلینا جولی، کیت بکینزیل و عروسکهای Pussycat. علاوه بر این، جعل افراد مشهور فوت شده از جمله جودی گارلند و آدری هپبورن نیز در رمان ذکر شدهاست.
توسعه
[ویرایش]توسعه تجاری
[ویرایش]در ژانویه ۲۰۱۸، یک برنامه دسکتاپ اختصاصی به نام فیک-اپ راه اندازی شد.[۳۱] این برنامه به کاربران این امکان را میدهد که به راحتی ویدیوهایی را با چهرههایشان که با یکدیگر عوض شده ایجاد و به اشتراک بگذارند. از سال ۲۰۱۹، FakeApp توسط برنامههای منبع-بازمانند Faceswap, DeepFaceLab و برنامههای مبتنی بر وب مانند DeepfakesWeb.com[۳۲][۳۳][۳۴] جایگزین شدهاست.
شرکتهای بزرگتر شروع به استفاده از دیپ فیک کردند. ویدیوهای آموزشی شرکتی را میتوان با استفاده از آواتارهای دیپ فیک و صدای آنها ایجاد کرد، برای مثال Synthesia که از فناوری دیپ فیک با آواتارها برای ایجاد ویدیوهای شخصیسازی شده استفاده میکند. غول اپلیکیشن موبایل Momo اپلیکیشن Zao را ایجاد کرد که به کاربران این امکان را میدهد تا چهره خود را با یک عکس روی کلیپهای تلویزیونی و فیلم قرار دهند. از سال ۲۰۱۹، شرکت ژاپنی هوش مصنوعی DataGrid یک دیپ فیک تمام-بدن ساخته که میتواند یک فرد را از ابتدا ایجاد کند. آنها قصد دارند از اینها برای مد و پوشاک استفاده کنند.
انتقادات
[ویرایش]سوءاستفاده
[ویرایش]Aargauer Zeitung میگوید که دستکاری تصاویر و فیلمها با استفاده از هوش مصنوعی میتواند تبدیل به یک پدیدهٔ توده ای خطرناک شود. با این حال، جعل تصاویر و فیلمها حتی از ظهور نرمافزار ویرایش ویدئو و برنامههای ویرایش عکس، قدیمی تر است. در این مورد، واقع گرایی یک جنبه جدید است.[۲۴]
همچنین ممکن است از جعل عمیق برای کلاهبرداریهای هدفمند و پورن انتقامی استفاده شود.[۳۵][۳۶]
اثرات بر روی صحت و اعتبار
[ویرایش]اثر دیگری از جعل عمیق این است که دیگر مشخص نمیشود که محتوا هدفمند است (مانند طنز) یا واقعی است. الکس شامپاندارد، پژوهشگر AI، گفتهاست که همه باید بدانند که امروزه، با چه سرعتی همه چیز با این تکنولوژی خراب میشود و اینکه مشکل، فنی نیست بلکه یک مورد است که با اعتماد به اطلاعات و روزنامهنگاری حل میشود. مشکل اصلی این است که بشریت میتواند به دورانی برسد که دیگر نمیتوان تعیین کرد که آیا رسانههای تصویری مطابق با حقیقت هستند یا خیر.[۲۴]
واکنش اینترنتی
[ویرایش]برخی از وبسایتها، مانند Twitter و Gfycat، اعلام کردند که محتوای جعل عمیق را حذف و ناشران آن را مسدود خواهند کرد. قبلاً، پلتفرم چت Discord، یک کانال چت با فیلمهای پورن جعلی فرد مشهوری را مسدود کرده بود. وب سایت پورنوگرافی، Pornhub، همچنین قصد دارد تا چنین محتوایی را مسدود کند. با این حال، گزارش شدهاست که این سایت ممنوعیت آن را اعمال نکردهاست.[۳۷][۳۸] در Reddit، این وضعیت در ابتدا ناواضح باقی ماند تا زمانی که زیرمجموعه آن در ۷ فوریه ۲۰۱۸ به علت نقض غیرقانونی پورنوگرافی غیرداوطلبانه، به حالت تعلیق درآمد.[۱۲][۳۹][۴۰][۴۱] در سپتامبر سال ۲۰۱۸، گوگل تصاویری از پورنوگرافی مصنوعی ناخواسته را به فهرست ممنوعیتش اضافه کرد و به همه اجازه داد تا ممنوعیت نتایج واقعی یا برهنگیهای جعلی را درخواست کنند.[۴۲]
تشخیص جعل عمیق
[ویرایش]با گذشت زمان و پیشرفت تکنولوژی، تشخیص دیپ فیک هم سختتر خواهد شد. در سال ۲۰۱۸ محققان آمریکایی کشف کردند که چهرههای دیپ فیک بهطور عادی پلک نمیزنند. تعجبی هم نیست چراکه بیشتر تصاویر افراد در شرایطی است که چشمان آنها باز است و الگوریتمها نمیتوانند شرایط پلک زدن را یاد بگیرند. چندی نگذشت که این موضوع برطرف شد و دیپ فیک با قابلیت پلک زدن هم ایجاد شد. در ماهیت این بازی، هر زمانی که ضعف فناوری مشخص شود، راه حل آن هم خیلی سریع کشف میشود.[۴۲]
منابع
[ویرایش]- ↑ Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (به انگلیسی). Retrieved 2018-02-20.
- ↑ ۲٫۰ ۲٫۱ "Prepare, Don't Panic: Synthetic Media and Deepfakes". witness.org. Archived from the original on 2 December 2020. Retrieved 25 November 2020.
- ↑ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (به انگلیسی). Retrieved 14 November 2018.
- ↑ "Experts fear face swapping tech could start an international showdown". The Outline (به انگلیسی). Retrieved 2018-02-28.
- ↑ Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (به انگلیسی). ISSN 0362-4331. Retrieved 2018-03-24.
- ↑ ۶٫۰ ۶٫۱ Harwell, Drew (12 June 2019). "Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'". The Washington Post (به انگلیسی). Archived from the original on 31 October 2019. Retrieved 2019-11-08.
- ↑ Sanchez, Julian (8 February 2018). "Thanks to AI, the future of 'fake news' is being pioneered in homemade porn". NBC News (به انگلیسی). Archived from the original on 9 November 2019. Retrieved 2019-11-08.
- ↑ "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (به انگلیسی). Retrieved 2018-02-20.
- ↑ Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. Retrieved 2018-02-20.
- ↑ "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (به انگلیسی). Retrieved 2018-02-20.
- ↑ AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 2017-12-11
- ↑ ۱۲٫۰ ۱۲٫۱ Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online
- ↑ Harwell، Drew. «Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'» (به انگلیسی). Washington Post. شاپا 0190-8286. دریافتشده در ۲۰۲۰-۱۲-۲۴.
- ↑ Sabbagh، Dan؛ Ankel، Sophia (۲۰۱۸-۰۶-۲۱). «Call for upskirting bill to include 'deepfake' pornography ban» (به انگلیسی). The Guardian. شاپا 0261-3077. دریافتشده در ۲۰۲۰-۱۲-۲۴.
- ↑ https://www.washingtonpost.com/technology/2018/12/30/fake-porn-videos-are-being-weaponized-harass-humiliate-women-everybody-is-potential-target, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post.
{{cite web}}
:|access-date=
requires|url=
(help); External link in
(help); Missing or empty|last=
|url=
(help) - ↑ Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, archived from the original on 28 August 2019, retrieved 23 January 2019
- ↑ Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070
- ↑ heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien
- ↑ Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360. doi:10.1145/258734.258880.
- ↑ ۲۰٫۰ ۲۰٫۱ ۲۰٫۲ Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36 (4): 95:1–95:13. doi:10.1145/3072959.3073640.
- ↑ ۲۱٫۰ ۲۱٫۱ Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE: 2387–2395. arXiv:2007.14808. doi:10.1109/CVPR.2016.262. ISBN 978-1-4673-8851-1.
- ↑ Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepface dancing – just don't call it deepfake". Business Insider Australia (به انگلیسی). Archived from the original on 10 April 2019. Retrieved 2018-08-27.
- ↑ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Archived from the original on 17 May 2019. Retrieved 2018-08-27.
- ↑ ۲۴٫۰ ۲۴٫۱ ۲۴٫۲ "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. Archived from the original on 13 April 2019. Retrieved 23 January 2019.
- ↑ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". Archived from the original on 2018-10-11. Retrieved 2020-12-24.
- ↑ Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. Retrieved September 10, 2018.
- ↑ Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (به انگلیسی). Retrieved January 11, 2019.
- ↑ Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (به انگلیسی). Archived from the original on 10 April 2019. Retrieved 2018-08-27.
- ↑ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Retrieved 2018-08-27.
- ↑ Chopin, Allison. "'Epiphany Jones' book review: Sex crimes and psychosis in darkly funny thriller - NY Daily News". nydailynews.com. Retrieved 2018-12-31.
- ↑ "What is a Deepfake and How Are They Made?". Online Tech Tips (به انگلیسی). 2019-05-23. Archived from the original on 8 November 2019. Retrieved 2019-11-08.
- ↑ "Deepfakes web | The best online faceswap app". Deepfakes web. Archived from the original on 14 July 2021. Retrieved 2021-02-21.
- ↑ "Faceswap is the leading free and Open Source multi-platform Deepfakes software". 15 October 2019. Archived from the original on 31 May 2021. Retrieved 14 July 2021.
- ↑ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md). : iperov/DeepFaceLab". 19 June 2019. Archived from the original on 9 May 2019. Retrieved 6 March 2019.
- ↑ Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 2018-01-26, ISSN 0044-2070
- ↑ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02
- ↑ "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (به انگلیسی). Retrieved 2018-04-21.
- ↑ "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (به انگلیسی). Retrieved 2018-04-21.
- ↑ barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos
- ↑ heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn".
- ↑ "Reddit verbannt Deepfake-Pornos".
- ↑ ۴۲٫۰ ۴۲٫۱ Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'".