Главная

Дипфейк: как используется в маркетинге и как его распознать

Дата: 2024-06-06 | Время чтения: 8 минут (1529 слов)

Дипфейк (deepfake, или deep fake) — это искусственно созданные видео, изображения или аудиозаписи, которые создаются с помощью технологий искусственного интеллекта (ИИ). Название происходит от слияния двух слов в английском: deep learning (глубокое обучение) и fake (фальшивка).

Дипфейк Брюса Уиллиса в рекламе «Мегафон»

Ниже подробнее расскажем, что такое дипфейк, как он используется и как от него защититься.

История дипфейков

Истоки создания контента с помощью ИИ уходят в девяностые годы. В 1997-м Video Rewrite синхронизировала движения губ человека с генерируемым компьютером звуком. Так они добились очень реалистичной мимики речи.

В 2017 году зародился сам термин «дипфейк», когда пользователь «Реддита» под псевдонимом Deepfakes создал видео с помощью ИИ и запостил их. В этих видео лица знаменитостей были искусственно скопированы на тела актёров.

Год назад многие AI-видео выглядели вот так. Источник: YouTube-канал Robot Named Roy

Примерно с конца 2010-х дипфейки стали набирать популярность. Постепенно качество таких материалов становилось лучше. Развитие ИИ-технологий открыло новые возможности: создание реалистичных изображений, обработка голоса, интеграция компьютерной графики с реальным видео. Теперь искусственный интеллект доступен не только специалистам, но и обычным пользователям благодаря профессиональному программному обеспечению и удобным приложениям.

Сейчас дипфейки могут обмануть любого

Сфера применения ИИ-контента постоянно расширяется: реклама, маркетинг, игры, наука, образование, мода, дизайн, журналистика, искусство.

Такие разные дипфейки: хорошие и не очень

Технология дипфейк находит применение в разных сферах. В кино она создаёт цифровые копии звёзд, что экономит бюджеты на съёмках. Однако такое использование ИИ многими считается спорным, так как актёры и другие творческие работники теряют заработок.

Дип фейк также используется для качественной имитации голоса, что в некоторых ситуациях улучшает дубляж фильмов. В музеях и галереях эта технология является интересным инструментом для создания интерактивных экспонатов.

К сожалению, технология дипфейков часто используется не только во благо, но и во вред. Например, злоумышленники создают дип фейки с участием известных людей: политики, знаменитости и бизнесмены, чтобы манипулировать общественным мнением или совершать преступления (например, заманивать людей на мошеннические сайты).

Несанкционированное использование цифровых копий личности расценивается как посягательство на права человека или бренда. Бывали случаи, когда мошенники, используя технологию дипфейк, имитировали голос и изображение руководителя отдела, вводя в заблуждение сотрудников компании. Под видом выполнения распоряжения начальника, люди переводили денежные средства на счета преступников.

Также были попытки размещения фейковых сообщений от имени известных предпринимателей, где с помощью дипфейков рекламировались несуществующие возможности получения денег, а для их перевода себе на счёт предлагалось перейти на вредоносные сайты.

Технология дипфейков сейчас многими считается спорной и часто вызывает конфликты. Например:

В 2023-м году сценаристы США объявили протест из-за разногласий с продюсерами. Забастовка длилась 148 дней, став второй по продолжительности в истории WGA. В сентябре того же года стороны достигли соглашения. Одним из основных пунктов спора было влияние искусственного интеллекта на индустрию. Сценаристы хотели, чтобы ИИ использовался только как вспомогательный инструмент, а не как замена творческим работникам.

В мае 2024-го года актриса Скарлетт Йоханссон обвинила компанию OpenAI в том, что её голос использовали без разрешения для создания звукового ассистента. Актриса утверждала, что голос помощника Sky подозрительно похож на её собственный, а основатель компании OpenAi даже намекнул об этом в Twitter. Её юристы потребовали от OpenAI раскрыть подробности разработки этого голоса.

«Она» — такой пост сделал основатель OpenAi. Многие решили, что это отсылка к фильму «Она», в котором снималась Йоханссон

Дипфейки и ИИ в маркетинге

Контент, созданный ИИ, решает те же бизнес-задачи, что и традиционные методы маркетинга: он демонстрирует товары, завлекает новых пользователей или покупателей, делает вашу компанию более узнаваемой, увеличивает продажи. Вот что ещё делает этот инструмент:

  • Удешевляет рекламу. Создание ИИ-видео и фотографий не требует привлечения людей для съёмок (соответственно, платить им деньги тоже не надо). Дипфейки экономят для компаний значительные суммы на рекламу и легко создают образы любых людей, даже знаменитостей. Однако для этого нужно получить согласие, а многие звёзды и правообладатели настроены против ИИ. Если вы используете чью-то внешность, голос или творчество, защищённое авторскими правами, без согласия вы рискуете получить крупный штраф. Чужие сгенерированные с помощью ИИ видео также нельзя использовать без разрешения.

Шах Рукх Хан в рекламе Cadbury. Маленьким компаниям из Индии разрешили использовать его дипфейк для рекламы своих брендов

  • Ускорить адаптацию контента. С ИИ-технологиями бренды быстро подстраивают рекламу под разные условия. Создание контента для различных платформ становится проще и быстрее: если вам нужно видео для соцсетей или изображение для наружной рекламы, ИИ вам с этим поможет. Например, дипфейки создают многоязычные видеоролики или меняют фон, не проводя реальных съёмок. Так компании избегают больших трат.

Бренд Zalando использовал ИИ в своём видео — актриса Кара Делевинь говорила на нескольких языках

  • С ИИ можно креативить. Бренды реализовывают смелые идеи и удивляют аудиторию. Например, некоторые компании предлагают виртуально надеть очки и посмотреть, как они будут смотреться.

Примерка очков на сайте masterglasses.ru

Как сделать дипфейк

Дипфейки используют для безобидного развлечения, например, чтобы посмотреть на себя в старости или в образе другого пола, а также для более серьёзных целей.

Zao. В 2019 году Zao стало настоящим феноменом — оно подставляло лица пользователей в сцены из популярных фильмов. Однако сервис быстро столкнулся с критикой из-за вопросов конфиденциальности данных. Сейчас его нельзя скачать в России.

FaceSwap. Это бесплатное приложение меняет лица на видео. Разработчики утверждают, что следуют строгим этическим стандартам и стараются минимизировать способы недобросовестного использования.

ToonMe. Простое приложение, которое обрабатывает фото и превращает человека в мультяшку.

Источник: toonme.com

DeepFaceLab. Приложение предлагает продвинутые инструменты для создания дипфейков, но требует оплаты и сложно в освоении для новичков. Однако его работа впечатляет — сервис заменяет внешность на видео с очень реалистичным эффектом. DeepFaceLab не только подставляет другое лицо, но и омолаживает и синхронизирует движения губ с речью.

Пример работы инструмента. Кадр из видео Deepfakery на YouTube

FaceApp. Одно из самых популярных приложений. Есть версии для Android и iPhone. Хотите узнать, как выглядели бы в другом обличии? В приложении вы примерите образ противоположного пола, разные причёски, очки или бороду. А если вы желаете исправить какие-то недостатки в вашей внешности, приложение избавит от несовершенств с помощью фильтра.

FaceApp

Avatarify. Преображает статичные изображения, добавляя им реалистичную мимику и артикуляцию. Накладывает на фото звуковые записи и любимые песни.

Как вообще работает эта технология

Ян Гудфеллоу придумал генеративно-состязательные сети. Это два алгоритма, которые вместе создают ИИ-контент, например, дипфейки. Один алгоритм изучает реальные объекты и создаёт новое изображение, а другой «критикует» полученный материал — то есть проверяет, насколько естественно он выглядит. Они работают друг против друга и благодаря этому учатся. Таким образом качество дипфейков постоянно повышается.

Как узнать дипфейки

Так как же не дать себя обмануть? Если вы не уверены в подлинности видео, попробуйте найти странности:

  • Частота кадров. Обратите внимание, как часто меняются кадры. Дипфейки обычно «моргают» реже, чем реальное видео, и иногда это выглядит неестественно.
  • Звук. Существуют программы для изменения голоса, но во многих дипфейках используют только изображение. Будьте осторожны, если видео без звука или аудио не соответствует картинке. Обращайте внимание на движение губ.
  • Лицо и тело. Создавать реалистичные подделки всего человека — сложная задача. Чаще всего подменяют только лицо. Проверьте на совпадение пропорций тела и лица, цвет кожи, а также соответствие мимики движениям тела.
  • Длительность. Качественная генерация видео зачастую требует много времени на обучение алгоритма, поэтому фейковые ролики обычно короткие.
  • Рот. Технология ИИ не очень хорошо воспроизводит язык и зубы, когда человек говорит. Поэтому размытость внутри рта часто указывает на поддельное видео.
  • Детали. Это слабое место ИИ-программ. Обращайте внимание на мелочи: нереалистичная растительность на лице, слишком гладкая или морщинистая кожа, выдуманные родинки и неестественный цвет губ.

Посмотрите, как ошибаются нейросети в статье «Галлюцинации нейросетей: какие бывают, почему случаются и что с этим делать».

  • Специальное ПО. Для более тщательной проверки используйте программы по обнаружению deepfake. Это значительно снижает риск. Вот несколько вариантов:

1. KaiCatch. Инструмент, основанный на ИИ. Выявляет нетипичные элементы и манипуляции в фото и видео.

2. Forensically. Программа для изучения и проверки подлинности изображений, доступная бесплатно.

3. Image Edited. Сервис для проверки фотографий, который работает на уровне пикселей.

4. Sentinel. Инструмент с искусственным интеллектом, который используется правительствами, военными и компаниями, чтобы бороться с подделками. Загрузите фото или видео на сайт, и система ИИ проанализирует их на подлинность. Если это дипфейк, Sentinel покажет, как его создали.

5. Ghiro. Автоматизированный сервис, предназначенный для криминалистического анализа больших объёмов изображений.

Как защититься от создания дипфейков

Технология дипфейков продолжит развиваться и дальше. Если вы хотите защитить себя и близких:

Ограничьте доступ к своим личным данным. Не публикуйте в социальных сетях и на других ресурсах фото и видео, которые могут быть использованы для создания дипфейков. Если это возможно, сделайте свои аккаунты приватными.

Расскажите своим близким, как распознать дипфейки и какие риски они представляют. Покажите своим пожилым родственникам, как выглядят такие фото и видео.

Перепроверяйте данные. Если у вас возникли сомнения в подлинности ролика, попробуйте найти информацию из других источников. Используйте разные каналы связи для проверки информации, например, позвоните вашему знакомому, чей образ использован в дипфейке. А если вам нужно убедиться, что вы общаетесь с реальным человеком, спросите собеседника о чём-то, что известно только вам двоим.

Соблюдайте правила кибербезопасности. Используйте надёжные пароли и регулярно их меняйте. Установите антивирусную защиту и следите за её обновлениями. Регулярно делайте резервные копии важных данных.

Заключение

Дипфейк — это мощная технология, которая может как развлекать, так и дезинформировать. С одной стороны, она открывает возможности для творчества и самовыражения, с другой — требует развития критического мышления и инструментов для проверки достоверности информации. В будущем нас ждёт дальнейшее совершенствование дипфейков, поэтому важно быть бдительными и осознавать их потенциал как для позитивных, так и для негативных целей.

Подписывайтесь на наш Telegram-канал. Там вы найдёте самые интересные тренды и новости в сфере digital-маркетинга и технологий. Будьте в теме вместе с нами!

Vkontakte

LinkedIn

Twitter

Telegram

Поделиться

Если статья была вам полезна, поделитесь с вашими друзьями ;)

Vkontakte

LinkedIn

Twitter

Telegram