Главная Блог Deepfakes: как используются в стримах — и могут ли они изменить наше будущее
    27.11.2022
    129

    Поделиться:

    Deepfakes: как используются в стримах — и могут ли они изменить наше будущее

    Об истории появления deepfakes, создании подделок в прямом эфире, темной и светлой сторонах технологии и мерах борьбы с угрозами информационной безопасности.

    Немного истории

    Первое зафиксированное упоминание (и, вероятно, появление) дипфейков связано с небезызвестным сайтом reddit.com — в 2017 г. пользователь с говорящим ником deepfakes опубликовал ссылку на форум с поддельными порнороликами знаменитостей. И это были не приделанные в фотошопе головы, которые в 2020-х используются разве что в мемах, а технологии более глубокого обмана.

    Что такое deepfake — и как это работает?

    Дословный перевод термина «deepfake» — «глубокая подделка», что отсылает нас к технологиям создания этого продукта — глубинному машинному обучению нейросетей (deep machine learning).

    На видео выше американский актер Билл Хейдер на несколько мгновений на наших глазах превращается в Аль Пачино… И это дипфейк, хотя и сделанный нарочито топорно. Но похоже ведь, согласитесь!

    Дипфейком может быть как видео, так и фото, а также аудиозаписи — технологии синтезирования голоса и речи развиваются особенно стремительно.

    Как это работает?


    Есть несколько способов создания дипфейков, но два самых широко используемых — при помощи автокодировщиков и генеративных сетей (Generative Adversarial Networks — GANs).

    1. Автокодировщик — это нейросеть, которая использует технологию замены лиц.


    Этот способ предполагает, что у вас есть так называемое «целевое видео» (в качестве основы) и сотни часов видеороликов с человеком, которого вы хотите «вставить» в основное видео.


    При этом видео могут быть никак не связаны между собой. Основой может быть, например, трейлер к фильму, выпуск новостей, интервью и т.д., а видео для обучения нейросети можно загрузить из YouTube.


    Задача автокодировщика — проанализировать реальные видеоматериалы, на которых записан человек в разных ситуациях, и научиться как можно точнее распознавать движения и характеристики этого человека. Затем при помощи компьютерной графики кадры реального человека накладывают на сгенерированные нейросетью лицевые и речевые паттерны.

    2. Генеративные сети — создание синтезированной личности.


    Автор дипфейка загружает в нейросеть видео разных людей для обработки. В процессе обработки данных нейросеть выявляет закономерности и создает образ нового синтезированного «человека», которого на самом деле не существует. И этот синтезированный «человек» поразительно похож на настоящего.

    Именно генеративные сети используются в таких приложениях, как Zao, DeepFace Lab, Face App (популярный фоторедактор со встроенным ИИ), FaceSwap и др.

    Зачем создаются, как используются — и что не так с deepfakes?

    У дипфейков, как, впрочем, у любой технологии, есть положительная и отрицательная стороны.


    Изначально они создавались с целью развлечения — чтобы разнообразить контент. В самом широком смысле. Речь, в том числе, и о синтетической порнографии. И, казалось бы, чего в этом противозаконного?


    Однако при создании таких роликов без спроса используются биометрические данные известных людей (которые, впрочем, находятся в открытом доступе), а содержание такого «‎контента»‎ наносит вред их репутации (даже если это не порнографический шантаж).


    Каждый может сделать deepfake?


    C ростом доступности технологии — а сегодня дипфейк может сделать любой желающий, для этого не нужны специальные знания и глубокая экспертиза — она превратилась в опасный инструмент в руках злоумышленников.


    При этом качество и реалистичность дипфейков с момента появления технологии значительно возросли — еще недавно дипфейки не умели моргать по-человечески, сейчас же этот баг научились исправлять, и теперь синтетические модели моргают вполне естественно.


    Вопросы этики и нарушения авторских прав остаются открытыми. А эксперты опасаются, что, чем изощреннее будут технологии, тем сложнее будет выявлять подделки.

    Вмешательство в выборные процессы, накаление политической обстановки, рост преступности — пока общество не нашло эффективные способы регулирования, технология в потенциале представляет серьезную угрозу для мировой информационной безопасности.

    Deepfakes и стримы: подделка в режиме реального времени?

    В 2021 году технология дипфейков шагнула еще дальше: один из разработчиков DeepFaceLab опубликовал на Github новый инструмент DeepFaceLive — на этот раз для создания дипфейков в режиме реального времени.


    DeepFaceLive позволяет менять внешность прямо в ходе прямой трансляции или видеозвонков по Zoom и Skype. Сервис использует те же базы лицевых паттернов, что и DeepFaceLab (изначально эта база собиралась для создания дипфейкового порно) и совместим с большинством приложений и платформ для потоковой передачи видео и обмена сообщениями.


    Технологию замены лица DeepFaceLive также можно применять к уже записанным видео.


    Одна из популярных «‎моделей»‎ для онлайн-дипфейков — актриса Марго Робби.

    Не обошли вниманием и Тома Круза: «Мэверик» также любимый персонаж для экспериментов с дипфейками.

    Новый инструмент достаточно быстро обрел поклонников среди стримеров на Twitch, тиктокеров и блогеров — так, например, пользователь Тик-Ток примерил на себя лицо Железного Арни во время общения по видеочату.


    Дипфейк-аналитики отмечают, что у нового инструмента очень большой потенциал в сфере выпуска разнообразного медиа-контента, однако еще больше вероятность его использования в преступных целях: для обмана систем распознавания лиц и верификации личности.

    Аферы и неоднозначные примеры использования технологии

    Скандал в штате Пенсильвания, США

    В марте 2021 года широко разошлась история о сетевом харассменте с использованием дипфейков: мать одной из чирлидерш подделала фото и видео с другими девушками из команды, на которых они в голом виде курят и пьют — и отправила этот «‎контент»‎ тренеру.


    Так она хотела дискредитировать и подставить других членов команды.


    Она также отправляла сообщения с поддельных телефонных номеров, чтобы запугивать девушек — благодаря этому полиции и удалось ее выследить и взять под арест.



    Как Обама Трампа обозвал

    Самые убедительные и правдоподобные примеры дипфейков были созданы при участии артистов-подражателей, которые имитируют голос и мимику нужного человека. Так BuzzFeed вместе с комиком Джорданом Пилом в качестве имитатора сделали дипфейк Обамы, на котором он в открытую говорит не самые лицеприятные вещи — например, ругает Дональда Трампа (смотреть до конца!).

    Аудио-deepfake: звонок генеральному директору


    Эта афера с дипфейком стала одной из самых известных. В 2019 году генеральному директору энергетической компании в Лондоне поступил звонок от босса, в котором тот просил в течение часа перевести на счет 243 000 долларов. На самом деле, голос был сгенерирован ИИ, но определить на слух это было сложно, поэтому сотрудник компании, ничего не подозревая, выполнил поручение.



    Deepfake в выпуске новостей на корейском телевидении

    Если большая часть дипфейков сейчас — это пародии и эксперименты, при помощи которых пользователи тестируют технологии, этот пример показал, что в будущем дипфейки могут стать частью повседневных средств массовой информации.


    В конце 2020 года южнокорейский канал MBN пустил в эфир выпуск новостей с дипфейком ведущей Ким Джу-Ха. Обратная связь от телезрителей была смешанной: одни выразили восторг, насколько качественным выглядел дипфейк, а другие, напротив, беспокоились о дальнейшей судьбе ведущей — не потеряет ли она работу?


    Канал же заранее предупредил зрителей, что в выпуске будет использован deepfake, и успокоил, что настоящая Ким Джу-Ха останется сотрудником компании.


    На канале MBN также прокомментировали, что в будущем планируют использовать технологию — например, для экстренных выпусков новостей.

    Светлая сторона deepfakes

    Несмотря на то, что технология дипфейков крайне неоднозначна, спорна и даже провоцирует скандалы — сейчас более 95% всего производимого дипфейкового контента это синтетическая порнография с нелегальным использованием лиц знаменитостей — она также может приносить существенную пользу.


    Дипфейки уже широко используются в кинематографе и позволяют «‎воскрешать» на экране актеров, которых нет в живых — вспомним «‎возвращение»‎ Пола Уокера в девятой серии «‎Форсажа»‎ и Кэрри Фишер в «‎Скайуокер. Восход»‎. (Однако до сих пор ведутся споры об этичности использования технологии в этом случае).

    На заднем плане — дипфейк актера Пола Уокера
    «Сгенерированная» Кэрри Фишер (принцесса Лея) в девятом эпизоде «‎Звездных войн»‎

    Аналитики видят большой потенциал в сфере онлайн-образования, производства ТВ-новостей, кино, компьютерных игр, блоггинга и других креативных сфер.


    Технологии синтезирования голоса также широко применяются в медицине — благодаря инновациям человек, потерявший голос из-за болезни, может вновь его обрести.



    Deepfakes в онлайн-образовании


    Одной из первых в этой области стала компания Synthesia (Лондон). Платформа выпускает ролики для корпоративного обучения на основе искусственного интеллекта.


    Компания уже работает с такими гигантами, как Accenture и WPP.


    «‎За этой технологией будущее контента»‎, — говорит сооснователь компании Виктор Рипарбелли. — «‎Для создания видео нужно всего лишь выбрать подходящий аватар из предлагаемых вариантов и загрузить текст, который преобразуется в речь».

    Интерфейс платформы Synthesia

    В чем опасность для интернет-компаний и экономики? Технологии борьбы с deepfakes

    Сегодня разные сферы бизнеса — службы доставки, приложения для знакомств, страховые компании — при принятии решений все чаще опираются на визуальные и аудио-доказательства: фото, видео и аудиозаписи. Но если практически любой человек при желании может сделать вполне убедительную и реалистичную подделку — например, украсть личность другого человека и оформить на него кредит — это ставит под сомнение такую стратегию.


    Это новый вызов для систем обеспечения информационной безопасности.


    Меры борьбы с deepfakes


    Ирония в том, что сейчас подделки помогают обнаруживать те же нейросети, но и здесь есть свои нюансы. Так, например, сгенерированные видео знаменитостей обнаружить намного проще. Хотя бы потому, что сеть уже обучилась на часах видеоматериалов, которые есть в свободном доступе.


    Технологические компании сейчас работают над системами обнаружения, которые нацелены на выявление подделок всякий раз, когда они появляются. Правительства и исследовательские институты выделяют средства на поиск новых возможностей обнаружения дипфейков.


    Еще одна стратегия — обезопасить средства массовой информации от проникновения подделок и дальнейшего их распространения. Поскольку цифровые водяные знаки уже не считаются надежными, ведется разработка онлайн-регистраторов на основе блокчейна. Такие регистраторы могут хранить защищенные от несанкционированного доступа записи видео, изображений и аудио. Таким образом их происхождение и любые манипуляции всегда можно будет проверить.

    комментарии

    Похожие новости