Deepfakes: искусство создания «фальшивых авторов» во времена искусственного интеллекта

29/12/21

В последние годы разработка и внедрение глубоких нейронных сетей ускорили разработку приложений, способных очень надежно распознавать различные категории изображений и видео. 

Это математические модели, берущие свое начало в исследованиях, опубликованных более полувека назад, и только в последние годы, благодаря очень высокопроизводительным компьютерам с низкой стоимостью, они быстро развились, что позволило их применять в различных реальных контекстах, таких как распознавание лиц и человеческой речи.

Приложение, которое пользуется некоторым успехом в мире развлечений, но которое создает несколько проблем для безопасности, - это создание deepfakes, сочетание словосочетания «глубокое обучение» и «фальшивка». Этот термин относится к любому творению, полученному с помощью методов, позволяющих накладывать изображения человека (цели) на изображения другого человека (источника) в видео, в котором второй человек делает или говорит определенные вещи. Таким образом вы получаете фальшивые реалистичные видеоролики, в которых, например, актер играет роль, но его лицо реалистично накладывается на лицо известного человека, который никогда не произносил фразы, заявленные актером, и не был в контексте сцена. В более общем смысле, с термином deepfakes это относится к синтетическому содержанию, полученному с помощью инструментов искусственный интеллект.

Недавно в некоторых статьях был предложен обзор техник создания deepfakes и для их идентификации. Методы обнаружения необходимы для идентификации изображений и видео, созданных специально для дезинформации или, в более общем смысле, для обмана людей. В работах «Создание и обнаружение дипфейков: обзор»1 и «Глубокое обучение для создания и обнаружения дипфейков: обзор»2, авторы объясняют последние тенденции в технологиях производства дипфейков и их добросовестное и недобросовестное использование.

Помимо законного использования, например, в области кинопроизводства или машинного перевода, существует целый ряд незаконных видов использования, в частности, при производстве порнофильмов или фальсификации речей с целью легкого заработка, влияние на общественное мнение и выборы, создание паники, создание ложных судебных доказательств и т. д. 

Первая попытка создания deepfake он восходит к пользователю Reddit, который разработал приложение под названием «FakeApp», используя модель, основанную на автоэнкодер объединены, чтобы извлечь основные черты из изображения лица и воспроизвести их на другом изображении лица. 

Un автоэнкодер представляет собой нейронную сеть, состоящую из кодер и один декодер, созданный с целью извлечения основных характеристик набора немаркированных данных (кодировщик) и восстановления входных данных (декодер), начиная с ранее созданного компактного представления. А deepfake можно создать с помощью кодер специализируется на лице человека и использует кодировку, реализованную таким образом в качестве входных данных для декодер специализируется на лице другого человека.

Вторая технология создания «дипфейков» - это использование «генеративных состязательных сетей». Также в этом случае мы имеем дело с нейронными сетями, цель которых - создавать реалистичные изображения, не соответствующие реальным людям.3.  

Использование этих технологий делает все труднее отличить реальное изображение или видео (изображение или речь) от модифицированного, что создает серьезные проблемы в области конфиденциальности, демократической жизни и национальной безопасности.  

В этих публикациях также упоминаются некоторые случаи, представляющие особый интерес для военного мира, когда были получены спутниковые изображения, модифицированные для военных целей, детали которых не представлены в оригинале.

Хотя верно то, что различить deepfakes На самом деле верно и то, что технологии приходят нам на помощь. В своих работах авторы рассматривают основные методы анализа, применяемые при геодезии. deepfakes, методы, которые часто снова используют технологии глубокое обучение. К сожалению, однако, эти методы обнаружения очень уязвимы, и достаточно умеренных усилий, чтобы изменить процесс создания. deepfakes так что они больше не распознаются как таковые.

В настоящее время во многих случаях видеоизображения используются в уголовных процессах, видеоролики сертифицированы судебно-медицинскими экспертами.

Но насколько вы можете доверять тому, что видите или слышите в видео?

Все меньше и меньше ... поэтому будет все больше и больше нуждаться в поддержке ИТ-специалистов (цифровая судебная экспертиза) способных использовать и распознавать использование глубокое обучение судебным экспертам. К сожалению, даже в этом случае в некоторых случаях результата может быть недостаточно для установления истины, поскольку не всегда легко или возможно объяснить, как работает технология. глубокое обучение производить или размещать deepfakes

Следовательно, необходимо сочетать интеллектуальные методы и методологии сравнительной проверки контекста с технологическими инструментами анализа изображений и видео.

Алессандро Руголо, Джорджо Джачинто, Маурицио д'Амато

Для получения дополнительной информации:

- Создание и обнаружение дипфейков: обзор (arxiv.org

[1909.11573] Глубокое обучение для создания и обнаружения дипфейков: обзор (arxiv.org)

Новейшее оружие с поддержкой искусственного интеллекта: фотографии Земли "подделки" | Зимние часы

Новейшее оружие с поддержкой искусственного интеллекта: фальшивые фотографии Земли - Defense One

Создание и обучение Deep Fake Autoencoders - CodeProject

Модели рекуррентных нейронных сетей кодировщика-декодера для нейронного машинного перевода (machinelearningmastery.com)

Генераторы фальшивых лиц ИИ можно перемотать, чтобы выявить настоящие лица, которым они обучались | Обзор технологий MIT

Понимание Генеративных Состязательных Сетей (GAN) | Джозеф Рокка | К науке о данных

[1406.2661] Генеративные состязательные сети (arxiv.org)

1 Исроэль Мирски и Венке Ли. 2021. Создание и обнаружение дипфейков: обзор. ACM Comput. Surv. 54, 1, статья 7 (январь 2022 г.), 41 стр. DOI:https://doi.org/10.1145/3425780

2 Нгуен, Т.Т., Нгуен, QVH, Нгуен, CM, Нгуен, Д., Тхань Нгуен, Д., и Нахаванди, С., «Глубокое обучение для создания и обнаружения дипфейков: обзор», электронные отпечатки arXiv, 2021 г., https://arxiv.org/abs/1909.11573v3

3 Пример лиц, созданных с помощью этой методологии, доступен здесь: https://thispersondoesnotexist.com (открывающая фотография)