Объяснение Deepfakes: AI, который делает фальшивые видео слишком убедительными

Видеть значит верить. Ну, по крайней мере, так было до того, как мы поняли, что люди могут показывать видеоролики, чтобы продвигать мистификацию и переписывать историю. Несмотря на то, что мы нашли способы опровергать большинство ложных изображений, есть одно технологическое развитие, которое набирает обороты настолько быстро, что мы скоро можем больше не знать, как сказать, что реально, а что фальшиво.

Deepfakes изменяют все, что мы считали возможным, с точки зрения видео под контролем. Вот все, что вам нужно знать о них …

Что такое Deepfakes?

Термин «глубокие подделки» происходит от сочетания слов «глубокое обучение» и «подделки». Это потому, что программное обеспечение искусственного интеллекта, обученное синтезу изображений и видео, создает эти видео. Этот ИИ может накладывать лицо одного субъекта (источника) на видео другого (цели). Более продвинутые формы технологии могут синтезировать совершенно новую модель человека, используя лицевые жесты источника и изображения или видео предмета, который они хотят выдать.

Технология может создавать модели лица на основе ограниченных визуальных данных, таких как одно изображение. Однако чем больше данных ИИ должен обработать, тем более реалистичным будет результат.

Вот почему политики и знаменитости являются такими легкими мишенями для глубоких подделок, поскольку в Интернете доступно так много визуальных данных, что программное обеспечение может их использовать. Поскольку программное обеспечение DeepFake доступно на платформах с открытым исходным кодом, люди в Интернете постоянно совершенствуются и опираются на работу других.

Происхождение технологии Deepfake AI

Технология, лежащая в основе Deepfakes, была разработана для множества целей. Как и Photoshop, программа предназначена для профессионального, развлекательного и любительского использования. И точно так же, как Photoshop, несмотря на то, что создатель не имеет злых намерений при создании программного обеспечения, это не помешало людям использовать его в злонамеренных целях.

Технология смены лица изначально использовалась в основном в киноиндустрии. Один из самых известных примеров — фильм «Изгой-один: история звездных войн» 2016 года. В фильме режиссеры использовали технологию смены лица и синтеза видео, чтобы воссоздать персонажа Гранд Моффа Таркина. В фильме была также создана младшая версия принцессы Леи. В обоих случаях модели лиц оригинальных актеров накладывались на замещающих актеров.

Такие приложения, как Snapchat, также используют технологию смены лица для создания веселых фильтров для пользователей. Разработчики этих приложений постоянно совершенствуют функции обнаружения и отслеживания лиц, чтобы более эффективно применять эти фильтры.

Между тем, другие разработали инструменты синтеза видео для создания голограмм в образовательных целях. Например, в одном проекте было разработано программное обеспечение для синтеза видео и лица, чтобы свидетельства выживших в Холокосте можно было представить в виде интерактивных голограмм в музее.

Почему Deepfakes делают людей нервными

Когда люди поняли, что мошенники и люди, играющие в обман, используют Photoshop для создания поддельных изображений, нам пришлось скептически относиться к тому, что мы считаем доказательством. К счастью, было много способов определить, было ли изображение поддельным, даже невооруженным глазом.

В дополнение к этому создание убедительного изображения в Photoshop является относительно трудоемким. Не каждый может сложить два изображения и сделать их реалистичными.

Но глубокие подделки разные. Машинное обучение облегчает жизнь

, но в этом случае это значительно упрощает подделку. Во-первых, программное обеспечение широко и свободно доступно. FakeApp, например, является популярным выбором для создания глубоких подделок. Вам не нужны продвинутые навыки, чтобы применить замену лица, программное обеспечение сделает это за вас.

Поскольку ИИ и глубокое обучение помогают создавать глубоких подделок, технология также совершенствуется и становится более убедительной с угрожающей скоростью. Скоро эти правки не будут видны невооруженным глазом.

В мире, изобилующем поддельными новостями, убедительные глубокие подделки могут оказаться хаотической силой против того, что мы считаем правдой.

Рост глубоких подделок также происходит в то время, когда синтез речи ИИ тоже быстро развивается. ИИ может генерировать не только поддельные видеоролики, но и модели голоса для людей.

Это означает, что вам не понадобится подражатель, чтобы звучало так, будто политик делает возмутительное заявление. Вы можете обучить ИИ подражать их голосу.

Последствия Deepfakes

Люди уже используют подделок в злонамеренных целях. Люди часто использовали FakeApp для создания поддельных роликов знаменитых актрис, занимающихся контентом для взрослых.

Гал Гадот, Дейзи Ридли и Эмма Уотсон — лишь некоторые из актрис, на которых нацелены фальшивые видео для взрослых. Эти глубокие подделки обмениваются лицами актрис в видео от взрослых кинозвезд.

В то время как несколько платформ и некоторые сайты для взрослых запретили эти типы видео, каждый день появляются новые. На самом деле, некоторые веб-сайты специально создают фальшивые видео для взрослых знаменитостей на основе запросов пользователей.

В большинстве стран еще нет законов, касающихся такого рода контента, что затрудняет контроль.

Хотя мы все еще далеки от антиутопии, управляемой дезинформацией и ложными видео-свидетельствами, которые мы видим в таких фильмах, как «Бегущий человек», мы уже слишком хорошо знакомы с эффектами фальшивых новостей.

,

Deepfakes может быть мощным инструментом распространения дезинформации. Никто не был обвинен в совершении преступления или фальсифицировал свою смерть, используя глубокие подделки, но что происходит, когда становится трудно определить, какие видео действительно реальны?

Последствия подделок, используемых в политических целях, носят двоякий характер. Во-первых, это значительно облегчает распространение поддельных новостей. Видео чаще, чем текст или изображения, убеждают людей в том, что на самом деле произошло что-то вымышленное.

Люди уже верят заголовкам фальшивых веб-сайтов без каких-либо доказательств, подтверждающих их историю. Неожиданно в поддельных историях появятся «доказательства», показывающие, как политики признаются в проступках или делают вопиющие заявления.

С другой стороны, глубокие подделки могут также ободрить политиков, уклоняясь от ответственности. Они всегда могут легко утверждать, что аудио или видео запись на самом деле является фальшивкой.

Как мы боремся с Deepfakes?

В то время как многие технологические компании не торопятся, чтобы править в фальсификациях, множество людей разрабатывают инструменты для борьбы с вредоносными фальшивыми видео. ИИ может бороться с хакерами и киберпреступностью

, но это также полезно для обнаружения подделки AI в видео.

Фонд AI Foundation создал плагин для браузера под названием Reality Defender, который помогает обнаруживать контрафактный контент в Интернете. Другой плагин, SurfSafe, также выполняет аналогичные проверки. Оба эти инструмента направлены на то, чтобы помочь интернет-пользователям отличить факты от вымысла.

Веб-сайты, проверяющие факты, такие как Snopes, также расширились и стали рекламировать видео-ролики. Но у них еще нет инструментов для автоматического обнаружения подделок.

Даже министерство обороны США инвестировало средства в программное обеспечение для обнаружения мошенников. В конце концов, что произойдет, если в Интернете появится убедительное видео мирового лидера, в котором будет объявлено о войне или о запуске ракеты против другой страны? Правительствам нужны инструменты для быстрой проверки законности видео.

Непреднамеренные последствия машинного обучения

Нет сомнений, что технология искусственного интеллекта и глубокое машинное обучение улучшают нашу жизнь во многих отношениях. Но технология также имеет непредвиденные последствия.

В то время как плохие данные являются основным препятствием для алгоритмов машинного обучения, человеческий фактор также играет роль. Трудно предсказать, как люди могут использовать определенные технологии в злонамеренных целях. Вы можете узнать больше о машинном обучении и прошлых ошибках в нашем руководстве по алгоритмам машинного обучения и почему они идут не так, как надо

,

Ссылка на основную публикацию
Adblock
detector