Точка зрения

Приобретите навыки фактчекинга и инфограмотности для распознавания дипфейков, выдуманных россиянами (видео)

ИА «ФАКТ» уже  рассказывал, как петербургские поэты-мигранты в течение года публиковали нацистские стихи, издавая их за Z-поэзию, чтобы показать поклонникам войны подлинное содержание русской агрессии.

О том, что Россия будет использовать в своей пропаганде нарративы для дискредитации украинских военачальников и солдат, было понятно с первых месяцев войны. Профессор Сандра Вахтер, эксперт по праву и этике ИИ, больших данных и робототехники в Оксфордском университете, считает: «Распространение ложной или обманчивой информации о политических лидерах так же старо, как и само человечество».

Для полноты картины рассмотрим, как россияне используют дипфейки, в которых украинское руководство страны и высшее командование изображаются некомпетентными и коррумпированными, а ребята ВСУ ведут себя безнравственно и преступно: пытают, убивают, мародерствуют.

Эти видеоролики распространяют в соцсетях и других медиа, чтобы подорвать доверие к украинским военным и властям и вызвать у общественности отвращение и гнев. Вот некоторые примеры, которые, возможно, скоро станут хрестоматийными.

Рыба гниет из головы

Именно на это сделали ставку авторы Deepfake, который сначала мог шокировать многих: слишком услышанное контрастировало с привычным образом народного любимца главнокомандующего Валерия Залужного.

Инфоповодом к видео стало убийство адъютанта последнего, случившееся накануне и приписанное авторами ролика украинскому Президенту. В ролике псевдоголовнокомандующий призвал украинцев восстать против тирании Зеленского, утверждая, что тот якобы уничтожил адъютанта Залужного и теперь готовит покушение на него самого.

Голосом Януковича (неужели экс-президент решил сделать карьеру актера дубляжа?)) псевдоголовнокомандующий сделал крамольное заявление: «Он собирается меня ликвидировать также, а потом сдать страну. Зеленский — это враг нашего государства. Из-за него полностью провалили контрнаступление, потеряв полмиллиона лучших» сыновей нации. Если его не остановить, мы потеряем полностью всю страну.

Центр противодействия дезинформации быстро идентифицировал страну происхождения этого «шедевра». Чтобы создать такой артефакт, не нужно быть мастером технологии ИИ и монтажа. Нужно найти сервис, умело работать с украинским или русским языком. Выбрать видео нужного спикера, которого следует дискредитировать. Программа скопирует его голос. Важно, чтобы размер нового фейкового текста совпадал по длительности звучания с оригинальным текстом, иначе речь будет неестественно медленной или быстрой.

Приобретите навыки фактчекинга и инфограмотности для распознавания дипфейков, выдуманных россиянами (видео)
Фото с видеоролика

На самом деле отличить дипфейк и оригинальное видео просто. В ролике с Залужным очевидно, что движение губ рассинхронизировано с голосом, а мимика неестественна. К примеру, когда в речи есть пауза между предложениями, а губы спикера продолжают двигаться. И когда это повторяется в ролике трижды, сомнений в фейковости видеоролика не остается.

ПОСМОТРИТЕ ЕЩЕ:  Крик души: как эвакуация в Херсонской области стала испытанием для самих украинцев

Смерть помощника Залужного использовали как инфопривод, рассчитывая на то, что аудитория, не обладающая навыками фактчекинга и инфограмотности, проглотит этот крючок. И потом распространит эту незатейливую наживку в своем окружении. Русской пропаганде нужно не качество, а количество.

Фейк из фейков

В сети распространяли дипфейк, на котором украинский Президент призывает людей сдаваться. На видео транслировалось, как будто бы Владимир Зеленский, стоя за трибуной, говорит: «Оказалось, что быть президентом не так просто», что он «решил вернуть Донбасс» России и что усилия украинской армии в войне «провалились». И резюмирует: «Мой вам совет — сложите оружие и возвращайтесь к своим семьям. Умирать на этой войне не стоит. Мой вам совет — жить. Я собираюсь делать то же самое».

Но это видео – фейк из фейков, и это очевидно. Председатель псевдопрезидента неестественно велика, посажена не под углом и странным образом освещена, вокруг нее повышена пикселизация по сравнению с телом. У него неестественный тембр и темп голоса.

Был ли мальчик?

Для дипфейк-масок работники фронта ИПСО используют лица рандомных людей с фотостоков. Да, лицо «дружковского» мальчика можно найти на разных бот-страницах Вконтакте.

Также наделало шум видео, в котором якобы украинский военнослужащий организовал в общественном транспорте Славянская дебош с гранатой.  Под видео изобиловали комментарии типа «обезьяна избила водителя, сломала стенку автосалона и решила взорвать всех гранатой, которую сперла с расположения…»

Во-первых, видео было сработано неуклюже, во-вторых, отсутствовал факт задержания подобного дебошира, что является дополнительным свидетельством фейковости этого информационного продукта. В маске для дипфейка специалисты признали лицо режиссера Кирилла Хачатурова.

Дипфейки для дискредитации украинских военнослужащих

В 2022-м россия опубликовала дипфейные ролики, на которых украинский военный командир вроде бы отдает приказ, а украинский солдат вроде бы стреляет в мирных жителей. Z-патриоты используют дипфейки, в которых украинский солдат якобы признается в совершении военных преступлений или поддерживает пророссийских сепаратистов. Видео широко разошлись в российских медиа и использовались для оправдания российского вторжения в Украину.

Если внимательно присмотреться, видно, как слезает маска с лица.

Чем эмоциональнее видео, тем вероятнее, что оно заденет за живое и станет вирусным. Так, в тектоке и других соцсетях завирусилась серия видеороликов о Воху, украинском военнослужащем с синдромом Дауна.

Бросили собаке кость — благодарная аудитория подхватила — и на реддите появились комментарии вроде: «Черт возьми. Если собственные собратья делают это с ним, это так грустно. Он этого не заслуживает….какие жестокие садисты отправляют на поле с синдромом Дауна?!»

ПОСМОТРИТЕ ЕЩЕ:  Крах яхты Bayesian у берегов Сицилии: общественные реакции в мире

Первый вброс дипфейкового ролика состоялся на псевдоукраинском канале «Разведчик», на пророссийском радиоканале «Рядовой на передовой» и «Степной ветер». Все три ТГ-группы связаны между собой. Вероятно, это одна сеть ТГ каналов. Работая по такой схеме, несколько аффилированных друг с другом каналов создают общую инфопузырь. Это настоящая фабрика дипфейк-постановок, которая затем распространяет эту беду на большое количество ТГ каналов с многочисленной аудиторией.

И на старуху бывает проруха.  Так, опытный американский радиоведущий Джонс (помешанный на конспирологии, увлекающийся российским идеологом дугиным и с удовольствием посещающий российские пропагандистские каналы) также способствовал тому, что дипфейк набрал сотни тысяч просмотров на российских каналах. Если бы он не поленился и провел исследование, то увидел бы, как неловко сделано deepfake: лицо Вохи в ролике съезжает с кадра, потому что нейросеть не успевает наложить маску.

Главное оружие – доверять только новостям из проверенных источников

Штамповать фейки – единственный талант кремлевских журналюг. Наверняка фабрика ИПСО будет и дальше плодить видеовбросы, записи телефонных разговоров, дипфейные видео. Поэтому всем нашим соотечественникам в Украине и за рубежом, а также для прогрессивной зарубежной общественности жизненно важно прокачивать навыки инфогигиены, осознанность и критическое мышление.

Бей врага его же оружием

Следуя патриотическому порыву, каждый из нас может стать бойцом информационного фронта, сея баги в сознании нерадивого ктони. Не хотите попробовать свой режиссерский талант, используя возможности, предоставляемые программами для создания дипфейков? Вот некоторые из них.

DeepFaceLab: ПО с открытым исходным кодом для создания реалистичных дипфейков путем обучения модели на изображениях и видео целевого лица.

Поддельное приложение: Пользовательский интерфейс для DeepFaceLab, упрощающий процесс создания дипфейков.

Восстанавливаться: Мобильное приложение, позволяющее пользователям создавать дипфейки с помощью селфи.

Смена лица: ПО для редактирования изображений и видео для создания дипфейков

Их: Китайское мобильное приложение, позволяющее пользователям создавать дипфейки с помощью видеоклипов знаменитостей.

Adobe After Effects: Программное обеспечение для редактирования видео, которое можно использовать для создания дипфейков с помощью покадровой анимации и других методов.

Синтезия: Облачная платформа, позволяющая пользователям создавать дипфейковые видео с использованием ИИ.

ДЕЛАЛ: Компания, предоставляющая технологию глубокого обучения для создания и обнаружения дипфейков.

Важно отметить, что эти программы становятся все более изощренными и становится все труднее отличить дипфейки от реальных видео. Поэтому важно быть критическим к информации, которую вы видите в Интернете и проверять источники, прежде чем верить чему-либо.

Татьяна Морараш

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Related Articles

Back to top button