Deepfake

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Deepfake (дипфейк) — конкатенация слов «глубинное обучение» (англ. deep learning) и «подделка» (англ. fake)[1], методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев, для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определенного объекта и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом[2].

Deepfake может быть использован для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для порно-мести[3]. 96% такого рода видео – порнографическое. 99% порнографических дипфейков делаются с участием «звезд»: популярных актрис и певиц[4]. Deepfake-порнография появилась в Интернете в 2017 году, в частности на Reddit[5] и была запрещена сайтами, включая Reddit, Twitter и Pornhub[6][7][8][9]. Deepfake может быть использован для создания поддельных новостей и вредоносных обманов[10][11].

Deepfake-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp[12], использующая TensorFlow[13].

Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени[14] . 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку – Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео[15].

Технология deepfake использовалась в музейном пространстве, например, в Музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает искусственный интеллект». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей[16].

См. также[править | править код]

Примечания[править | править код]

  1. Brandon, John. Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise (англ.), Fox News (16 February 2018).
  2. Евгения Созанкова. Дипфейки: как нейросети копируют реальность // screenlifer.com. — 2019.
  3. What Are Deepfakes & Why the Future of Porn is Terrifying (англ.), Highsnobiety (20 February 2018).
  4. 2020: эпоха дипфейков (рус.). Теплица социальных технологий (25 декабря 2020). Дата обращения: 26 декабря 2020.
  5. Roettgers, Janko. Porn Producers Offer to Help Hollywood Take Down Deepfake Videos (англ.), Variety (21 February 2018).
  6. Ghoshal, Abhimanyu Twitter, Pornhub and other platforms ban AI-generated celebrity porn (англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019. (англ.)
  7. It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet (англ.).
  8. Kharpal, Arjun. Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor, CNBC (8 февраля 2018).
  9. PornHub, Twitter Ban 'Deepfake' AI-Modified Porn (англ.), PCMAG.
  10. Experts fear face swapping tech could start an international showdown (англ.). The Outline. Дата обращения: 28 февраля 2018.
  11. Roose, Kevin. Here Come the Fake Videos, Too (англ.), The New York Times (4 March 2018).
  12. FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! (англ.), Reason.com (25 January 2018).
  13. I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it, The Verge.
  14. Thies, Justus Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Дата обращения: 24 февраля 2018.
  15. New Steps to Combat Disinformation (англ.). Microsoft On the Issues (1 сентября 2020). Дата обращения: 26 декабря 2020.
  16. Жанна Карамазова. Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых. screenlifer.com.