Меню
Главная
Случайная статья
Настройки
|
Дипфейк (англ. deepfake от deep learning «глубинное обучение» + fake «подделка»)[1] — методика синтеза изображения или голоса, основанная на искусственном интеллекте.
Содержание
Технология
Синтез изображения
Методика синтеза изображения используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом[2].
Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени[3]. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео[4]. Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp[5], использующая TensorFlow[6].
Голосовые дипфейки
Используя модифицированный алгоритм преобразования текста в речь и обработку компьютером аудиозаписей речи того или иного человека, возможно «подделать» голос этого человека. Так создаются голосовые дипфейки. С помощью этой технологии возможно адаптировать голоса актёров при локализации фильмов, создавать естественную речь для людей, утративших возможность говорить, начитывать аудиокниги для детей голосами родителей, подстраивать речь под определённый акцент, создавать реалистичные видеоаватары — личности для голосовых ассистентов. Впрочем, эта технология может также использоваться и злоумышленниками для обмана, дискредитации или дезинформации[7][8][9][10].
Применение
Фальсификация
Дипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для порно-мести[11]. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц[12]. Дипфейк-порнография появилась в Интернете в 2017 году, в частности на Reddit[13], и была запрещена многими сайтами, включая сам Reddit, Twitter и Pornhub[14][15][16][17]. Технология дипфейк также может быть использована для создания поддельных новостей и вредоносных обманов[18][19].
В 2020 году британский телеканал Channel 4 выпустил ложное рождественское поздравление от лица королевы Елизаветы II[20]. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала[21][22].
В политике
С 2018 года дипфейки получили широкое распространение в общественно-политической сфере[23], как с целью шуток, так и для манипуляции общественным мнением. В апреле 2018 года было создано вирусное видео[24], на котором бывший президент США Барака Обама обращается к зрителям с неожиданными фразами. Лицо Обамы было синтезировано нейросетью, а сам ролик создали как наглядное предупреждение о потенциальных угрозах инноваций.
В январе 2024, накануне праймериз в штате Нью-Гэмпшир, некоторые избиратели получили звонки с автоматическим сообщением, звучащим голосом президента Джо Байдена. Голос, похожий на Байдена, просил людей не приходить на предварительное голосование: «Ваш голос важен в ноябре, а не в этот вторник»[25].
Один из самых громких кейсов использования дипфейков в политике произошёл в Словакии в 2023 году накануне парламентских выборов. За двое суток до выборов на Facebook появилась аудиозапись, в которой лидер прогрессивной партии Михал Шимечка будто бы обсуждает с журналисткой Моникой Тодовой план фальсификации выборов[26]. Деятели говорили о покупке голосов у ромского населения страны. Фактчекеры выявили признаки генерации речи искусственным интеллектом[27], а вовлечённые в скандал лица быстро отвергли свою причастность к записи[28]. Тем не менее, публикация сгенерированного искусственным интеллектом компромата оказала влияние на результаты выборов[23].
С 2022 года фиксируется первое применение дипфейков в военно-политических целях[29]. 16 марта 2022 года на взломанном новостном сайте распространилось фейковое видео от имени президента Украины Владимира Зеленского. В ролике[29][30] сгенерированное изображение Зеленского обращалось к украинским войскам с призывом сложить оружие и сдаться России.
В июне 2023 года уже Россия подверглась информационной атаке на основе дипфейк-технологии. Хакеры взломали трансляции в нескольких регионах страны и пустили в эфир поддельное экстренное обращение Владимира Путина. «Путин» объявил, что ВСУ при поддержке НАТО вторглись в Брянскую, Белгородскую и Курскую области. Поддельный лидер декларировал введение военного положения, всеобщую мобилизацию и призывал население к эвакуации вглубь страны[31].
Использование дипфейк-технологий с целью влияния на общественное мнение, выборы и даже распространение государственной пропаганды во внешний мир также фиксировалось в Китае, Индии, Беларуси и Великобритании[23][29].
В искусстве и развлечениях
Технология дипфейк использовалась в музейном пространстве: например, в Музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dal Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает искусственный интеллект». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей[32].
См. также
Примечания
- Brandon, John (16 февраля 2018). Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise. Fox News (англ.). Архивировано 15 июня 2018. Дата обращения: 25 апреля 2019.
- Евгения Созанкова. Дипфейки: как нейросети копируют реальность // screenlifer.com. — 2019. Архивировано 2 сентября 2019 года.
- Thies, Justus. Face2Face: Real-time Face Capture and Reenactment of RGB Videos (неопр.). Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Дата обращения: 24 февраля 2018. Архивировано 26 февраля 2018 года.
- New Steps to Combat Disinformation (амер. англ.). Microsoft On the Issues (1 сентября 2020). Дата обращения: 26 декабря 2020. Архивировано 24 декабря 2020 года.
-
-
- Не обмануть лишь Станиславского: Что такое дипфейк-аудио и зачем нам оно Архивная копия от 1 сентября 2023 на Wayback Machine.
- Не верь ушам своим: Голосовые дипфейки Архивная копия от 1 сентября 2023 на Wayback Machine.
- Кто занимается дипфейк-аудио и зачем это нужно Архивная копия от 1 сентября 2023 на Wayback Machine.
- Дипфейки вокруг нас: Как учёные нашли способ распознать поддельный голос Архивная копия от 1 сентября 2023 на Wayback Machine.
-
- 2020: эпоха дипфейков (рус.). Теплица социальных технологий[вд] (25 декабря 2020). Дата обращения: 26 декабря 2020. Архивировано 25 декабря 2020 года.
-
- Ghoshal, Abhimanyu. Twitter, Pornhub and other platforms ban AI-generated celebrity porn (амер. англ.) (англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 20 декабря 2019 года.
-
-
-
- Experts fear face swapping tech could start an international showdown (англ.). The Outline. Дата обращения: 28 февраля 2018. Архивировано 16 января 2020 года.
-
- Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II | «Рамблер» (неопр.). Дата обращения: 30 июля 2022. Архивировано 27 апреля 2022 года.
- «Чудовищное видео»: «Елизавета II» доказала опасность дипфейков | «Газета.ru» (неопр.). Дата обращения: 30 июля 2022. Архивировано 30 июля 2022 года.
- Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»
- 1 2 3 Дипфейки в политике: опыт США и Евросоюза - Azbuka media (рус.) (27 мая 2025). Дата обращения: 3 июля 2025.
-
-
- Morgan Meaker. Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy (англ.) // Wired. — ISSN 1059-1028.
- dajn nahrvka telefontu predsedu PS a novinrky Dennka N vykazuje poda expertov poetn znmky manipulcie (неопр.). AFP Fakty (28 сентября 2023).
- ndl, Vladimr. Predvolebn „deepfake“ nebol kvalitn, proti proruskm kanlom zakroil tt. oskoro to me by horie (неопр.). Dennk N (6 октября 2023). Дата обращения: 3 июля 2025.
- 1 2 3 Дипфейки в политике: Восточная Европа, Китай, Индия - Azbuka media (рус.) (3 июня 2025). Дата обращения: 3 июля 2025.
-
- ‘Fake Putin’ announces Russia under attack as Ukraine goes on offensive (брит. англ.). POLITICO (5 июня 2023). Дата обращения: 3 июля 2025.
- Жанна Карамазова. Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых (неопр.). screenlifer.com. Дата обращения: 2 сентября 2019. Архивировано 2 сентября 2019 года.
Литература
|
|