Двое из ларца. Видео в стиле Deepfake заставило фанатов Уила Смита и Карди Би обсуждать их внешнюю схожесть

Обсудить

Редактировать статью

 

В Сети появилось фейковый видеоролик, в котором дает интервью человек с внешностью двух звезд – актера Уилла Смита и певицы Карди Би. Обе знаменитости отнеслись положительно к данному видео.

Видео было загружено на YouTube в пятницу создателем Deepfake роликов, скрывающемся под именем Myster Giraffe. В ролике показано лицо Уилла Смита с телом Белкалис Альманзар (Карди Би) во время интервью в 2017 году программе «Вечернее шоу с Джимми Фаллоном».

Технология создания фейковых видео Deepfake используется для создания вирусных роликов

В видеоролике человек с лицом Уилла Смита и фигурой Карди Би голосом американской рэперши рассказывает о том, как она получила новое имя.

Двое из ларца. Видео в стиле Deepfake заставило фанатов Уила Смита и Карди Би обсуждать их внешнюю схожесть

Первым делом видео было загружено на множество форумов, посвященных созданию фальшивых роликов. Однако, вскоре оно нашло свою дорожку непосредственно к Смиту и Карди Би.

Реакция звезд на ролик с их участием

Двое из ларца. Видео в стиле Deepfake заставило фанатов Уила Смита и Карди Би обсуждать их внешнюю схожесть

Смит отреагировал на видеоролик своим постом в сети «Инстаграм», описывая его как «очень хорошо» для своих подписчиков, число которых перевалило за 33 миллиона человек.

«Ну это уже чересчур! Хахаха», — написал Смит. – «Это очень хорошо. Кто-нибудь знает, кто это сделал?»

Карди Би, в свою очередь, также разместила ролик в субботу во многих социальных сетях. За небольшой промежуток времени число просмотров видео перевалило за миллион.

«Это был единственный раз, когда я пила биотин (витамин H)», — пошутила Карди Би в «Твиттере».

Двое из ларца. Видео в стиле Deepfake заставило фанатов Уила Смита и Карди Би обсуждать их внешнюю схожесть

Ролики в стиле deepfake может создать любой человек с помощью доступных в Сети инструментов, использующих систему искусственного интеллекта для наложения лица одного человека на другое.

Эта технология появилась в 2017 году и использовалась в основном создателями фейковых роликов для замещения лиц порноактрис лицами разных знаменитостей. С тех пор технологии значительно продвинулись вперед и позволяют создать более реалистичные образы людей. Причем сделать это стало очень просто.

Правительство США обеспокоено тем, что ролики могут использоваться в преступных целях

Американское правительство даже выделило определенную сумму из бюджета для выявления поддельных видео, опасаясь, что они могут привести к срыву демократических выборов. В некоторых американских штатах были предприняты попытки ввести уголовную ответственность за злонамеренное использование подобных роликов.

Двое из ларца. Видео в стиле Deepfake заставило фанатов Уила Смита и Карди Би обсуждать их внешнюю схожесть

С одной стороны, уделяется повышенное внимание вопросу безопасности из-за создания поддельных видеороликов. С другой стороны, фейковые видео находят применение в образовательных целях.

Deepfake видео уже находят широкое применение

Недавно в рамках кампании по борьбе с малярией был создан рекламный ролик, использующий технологию создания поддельных видео. В нем звезда футбола Дэвид Бэкхем получил возможность разговаривать на 9 различных языках, на которых он произносит речь о необходимости ведения решительной борьбы с болезнью.

Читай продолжение на следующей странице

Двое из ларца. Видео в стиле Deepfake заставило фанатов Уила Смита и Карди Би обсуждать их внешнюю схожесть