с 9:00 до 19:00 ежедневно
с 9:00 до 19:00 ежедневно
с 9:00 до 19:00 ежедневно
с 9:00 до 19:00 ежедневно
Поделиться:
Об истории появления deepfakes, создании подделок в прямом эфире, темной и светлой сторонах технологии и мерах борьбы с угрозами информационной безопасности.
Первое зафиксированное упоминание (и, вероятно, появление) дипфейков связано с небезызвестным сайтом reddit.com — в 2017 г. пользователь с говорящим ником deepfakes опубликовал ссылку на форум с поддельными порнороликами знаменитостей. И это были не приделанные в фотошопе головы, которые в 2020-х используются разве что в мемах, а технологии более глубокого обмана.
Дословный перевод термина «deepfake» — «глубокая подделка», что отсылает нас к технологиям создания этого продукта — глубинному машинному обучению нейросетей (deep machine learning).
На видео выше американский актер Билл Хейдер на несколько мгновений на наших глазах превращается в Аль Пачино… И это дипфейк, хотя и сделанный нарочито топорно. Но похоже ведь, согласитесь!
Дипфейком может быть как видео, так и фото, а также аудиозаписи — технологии синтезирования голоса и речи развиваются особенно стремительно.
1. Автокодировщик — это нейросеть, которая использует технологию замены лиц.
Этот способ предполагает, что у вас есть так называемое «целевое видео» (в качестве основы) и сотни часов видеороликов с человеком, которого вы хотите «вставить» в основное видео.
При этом видео могут быть никак не связаны между собой. Основой может быть, например, трейлер к фильму, выпуск новостей, интервью и т.д., а видео для обучения нейросети можно загрузить из YouTube.
Задача автокодировщика — проанализировать реальные видеоматериалы, на которых записан человек в разных ситуациях, и научиться как можно точнее распознавать движения и характеристики этого человека. Затем при помощи компьютерной графики кадры реального человека накладывают на сгенерированные нейросетью лицевые и речевые паттерны.
2. Генеративные сети — создание синтезированной личности.
Автор дипфейка загружает в нейросеть видео разных людей для обработки. В процессе обработки данных нейросеть выявляет закономерности и создает образ нового синтезированного «человека», которого на самом деле не существует. И этот синтезированный «человек» поразительно похож на настоящего.
Именно генеративные сети используются в таких приложениях, как Zao, DeepFace Lab, Face App (популярный фоторедактор со встроенным ИИ), FaceSwap и др.
У дипфейков, как, впрочем, у любой технологии, есть положительная и отрицательная стороны.
Изначально они создавались с целью развлечения — чтобы разнообразить контент. В самом широком смысле. Речь, в том числе, и о синтетической порнографии. И, казалось бы, чего в этом противозаконного?
Однако при создании таких роликов без спроса используются биометрические данные известных людей (которые, впрочем, находятся в открытом доступе), а содержание такого «контента» наносит вред их репутации (даже если это не порнографический шантаж).
C ростом доступности технологии — а сегодня дипфейк может сделать любой желающий, для этого не нужны специальные знания и глубокая экспертиза — она превратилась в опасный инструмент в руках злоумышленников.
При этом качество и реалистичность дипфейков с момента появления технологии значительно возросли — еще недавно дипфейки не умели моргать по-человечески, сейчас же этот баг научились исправлять, и теперь синтетические модели моргают вполне естественно.
Вопросы этики и нарушения авторских прав остаются открытыми. А эксперты опасаются, что, чем изощреннее будут технологии, тем сложнее будет выявлять подделки.
Вмешательство в выборные процессы, накаление политической обстановки, рост преступности — пока общество не нашло эффективные способы регулирования, технология в потенциале представляет серьезную угрозу для мировой информационной безопасности.
В 2021 году технология дипфейков шагнула еще дальше: один из разработчиков DeepFaceLab опубликовал на Github новый инструмент DeepFaceLive — на этот раз для создания дипфейков в режиме реального времени.
DeepFaceLive позволяет менять внешность прямо в ходе прямой трансляции или видеозвонков по Zoom и Skype. Сервис использует те же базы лицевых паттернов, что и DeepFaceLab (изначально эта база собиралась для создания дипфейкового порно) и совместим с большинством приложений и платформ для потоковой передачи видео и обмена сообщениями.
Технологию замены лица DeepFaceLive также можно применять к уже записанным видео.
Одна из популярных «моделей» для онлайн-дипфейков — актриса Марго Робби.
Не обошли вниманием и Тома Круза: «Мэверик» также любимый персонаж для экспериментов с дипфейками.
Новый инструмент достаточно быстро обрел поклонников среди стримеров на Twitch, тиктокеров и блогеров
Дипфейк-аналитики отмечают, что у нового инструмента очень большой потенциал в сфере выпуска разнообразного медиа-контента, однако еще больше вероятность его использования в преступных целях: для обмана систем распознавания лиц и верификации личности.
В марте 2021 года широко разошлась история о сетевом харассменте с использованием дипфейков: мать одной из чирлидерш подделала фото и видео с другими девушками из команды, на которых они в голом виде курят и пьют — и отправила этот «контент» тренеру.
Так она хотела дискредитировать и подставить других членов команды.
Она также отправляла сообщения с поддельных телефонных номеров, чтобы запугивать девушек — благодаря этому полиции и удалось ее выследить и взять под арест.
Самые убедительные и правдоподобные примеры дипфейков были созданы при участии артистов-подражателей, которые имитируют голос и мимику нужного человека. Так BuzzFeed вместе с комиком Джорданом Пилом в качестве имитатора сделали дипфейк Обамы, на котором он в открытую говорит не самые лицеприятные вещи — например, ругает Дональда Трампа (смотреть до конца!).
Эта афера с дипфейком стала одной из самых известных. В 2019 году генеральному директору энергетической компании в Лондоне поступил звонок от босса, в котором тот просил в течение часа перевести на счет 243 000 долларов. На самом деле, голос был сгенерирован ИИ, но определить на слух это было сложно, поэтому сотрудник компании, ничего не подозревая, выполнил поручение.
Если большая часть дипфейков сейчас — это пародии и эксперименты, при помощи которых пользователи тестируют технологии, этот пример показал, что в будущем дипфейки могут стать частью повседневных средств массовой информации.
В конце 2020 года южнокорейский канал MBN пустил в эфир выпуск новостей с дипфейком ведущей Ким Джу-Ха. Обратная связь от телезрителей была смешанной: одни выразили восторг, насколько качественным выглядел дипфейк, а другие, напротив, беспокоились о дальнейшей судьбе ведущей — не потеряет ли она работу?
Канал же заранее предупредил зрителей, что в выпуске будет использован deepfake, и успокоил, что настоящая Ким Джу-Ха останется сотрудником компании.
На канале MBN также прокомментировали, что в будущем планируют использовать технологию — например, для экстренных выпусков новостей.
Несмотря на то, что технология дипфейков крайне неоднозначна, спорна и даже провоцирует скандалы — сейчас более 95% всего производимого дипфейкового контента это синтетическая порнография с нелегальным использованием лиц знаменитостей — она также может приносить существенную пользу.
Дипфейки уже широко используются в кинематографе и позволяют «воскрешать» на экране актеров, которых нет в живых — вспомним «возвращение» Пола Уокера в девятой серии «Форсажа» и Кэрри Фишер в «Скайуокер. Восход». (Однако до сих пор ведутся споры об этичности использования технологии в этом случае).
Аналитики видят большой потенциал в сфере онлайн-образования, производства ТВ-новостей, кино, компьютерных игр, блоггинга и других креативных сфер.
Технологии синтезирования голоса также широко применяются в медицине — благодаря инновациям человек, потерявший голос из-за болезни, может вновь его обрести.
Одной из первых в этой области стала компания Synthesia (Лондон). Платформа выпускает ролики для корпоративного обучения на основе искусственного интеллекта.
Компания уже работает с такими гигантами, как Accenture и WPP.
«За этой технологией будущее контента», — говорит сооснователь компании Виктор Рипарбелли. — «Для создания видео нужно всего лишь выбрать подходящий аватар из предлагаемых вариантов и загрузить текст, который преобразуется в речь».
Сегодня разные сферы бизнеса — службы доставки, приложения для знакомств, страховые компании — при принятии решений все чаще опираются на визуальные и аудио-доказательства: фото, видео и аудиозаписи. Но если практически любой человек при желании может сделать вполне убедительную и реалистичную подделку — например, украсть личность другого человека и оформить на него кредит — это ставит под сомнение такую стратегию.
Это новый вызов для систем обеспечения информационной безопасности.
Ирония в том, что сейчас подделки помогают обнаруживать те же нейросети, но и здесь есть свои нюансы. Так, например, сгенерированные видео знаменитостей обнаружить намного проще. Хотя бы потому, что сеть уже обучилась на часах видеоматериалов, которые есть в свободном доступе.
Технологические компании сейчас работают над системами обнаружения, которые нацелены на выявление подделок всякий раз, когда они появляются. Правительства и исследовательские институты выделяют средства на поиск новых возможностей обнаружения дипфейков.
Еще одна стратегия — обезопасить средства массовой информации от проникновения подделок и дальнейшего их распространения. Поскольку цифровые водяные знаки уже не считаются надежными, ведется разработка онлайн-регистраторов на основе блокчейна. Такие регистраторы могут хранить защищенные от несанкционированного доступа записи видео, изображений и аудио. Таким образом их происхождение и любые манипуляции всегда можно будет проверить.
Обзор и инструкция по настройке.
Рейтинг вебкамер для стримеров. Обзор, характеристики и цены.
Настройка OBS Studio для трансляции на Youtube и VK.
Что такое вебинар и как на нем заработать?
Главные тренды платформы
Школа стриминга. Часть четвертая.
Владимир Зворыкин: человек, подаривший миру телевидение
Передача аудио и видео по локальным сетям
Первые изобретатели телевидения и их вклад в становление индустрии, первый опыт телевещания и съемки телевизионных передач.
Передвижная телевизионная станция. История и функционал.
Влияние телевидения на футбол и футбола на телевидение
Телетрансляция Олимпийских игр 1980 года в Москве. Как это было?
Обзор, технические характеристики
История появления, известные ученые и принцип работы
Что такое Deepfakes и как используется технология
История зарождения спортивных трансляций
История создания платформы Youtube
Все про легендарное приложение TikTok. История и интересные факты
Комплектация, советы при использовании
Ответьте на вопросы чтобы получить комерческое предложение
Готово: 0%
КП будет отправлено в WhatsApp
КП будет отправлено в WhatsApp
Заполните форму и мы свяжемся с вами в течение 5 минут.
комментарии