Дипфейк: опасное информационное оружие?

Для создания дипфейковых видео приглашают актеров, которые точно копируют мимику и артикуляцию субъекта ролика

В огромном потоке новостей сложно распознать фейковые новости. Ещё сложнее обнаружить их там, где казалось бы все очевидно. Журналисту следует знать, как не стать распространителем такой информации, а также, как ложные сведения скрываются под маской новостей.

Наряду с текстовым контентом, который не соответствует действительности, подделывают фотографии и видеоролики. С появлением такого рода фейка появился термин Deepfake. Он образовался путём морфологического слияния понятия deep learning (с английского языка — «глубинное обучение» и слова fake (с английского языка — «подделка»). Обозначает этот термин создание с помощью искусственного интеллекта синтеза изображений, видеороликов, наложение речи.

Что касается технического аспекта, программа учится на реальном исходном файле создавать нужное изображение до тех пор, пока алгоритм не начнёт путать оригинал и копию. Эту технологию используют, чтобы органично заменить часть изображения на задуманный элемент. Так и рождаются фейковые фотографии, где, например, запечатлены два известных человека вместе, а одного из них заменяют на другого с целью обмануть аудиторию. Это могут быть враждующие политики или звёзды в разводе. Такой фотографией представители «желтой» прессы могут иллюстрировать фейковую новость. Например, поместив рядом двух актеров, сообщить, что они образовали пару и готовятся к свадьбе.

Более сложная технология — создание видео. Для наложения нужной речи на спич известного человека приглашают специально обученных людей, которые могут имитировать артикуляцию, тембр голоса, мимику, повадки исходного спикера. В студии звукозаписи создают речь, которую компьютерная программа наложит не исходный ролик. Таким образом, создатели дипфейка транслируют в массы искаженную информацию от первого лица.

Однако у такой технологии есть и позитивное применение. Например, в музеях ее используют, чтобы максимально погрузить посетителей в тематику выставки. Изображение известного художника с экранов может рассказывать об истории своих работ и представленных экспонатах. Среди них выставка Сальвадора Дали во Флориде.

Многие называют технологию по созданию дипфейка информационным оружием будущего. Активные пользователи социальных сетей уже могли наблюдать примеры использования таких роликов в качестве рекламных, когда известные медийные личности якобы приглашают принять участие в опросах и розыгрышах.

Чтобы предупредить общество об опасности дипфейков в 2018 году режиссёр Джордан Пил совестно с изданием BuzzFeed опубликовали яркий пример подмены речи на видеообращении экс-президента США Барака Обамы, где он нелестно называет Дональда Трампа нелицеприятным словом. Его создали с помощью специального приложения. Целью было ни в коем случае не опорочить известного политика, а показать насколько мастерски народ могут ввести в заблуждение.