Основные риски технологии дипфейков и способы их обнаружения

В мире, где ваша онлайн-личность напрямую связана, перспектива идеального повторения вашего образа вызывает беспокойство. Но это именно то, с чем мы столкнулись с появлением технологии дипфейков.

В чем опасность дипфейков по мере того, как технологии становятся дешевле и проще в использовании? Кроме того, как отличить дипфейк от реального?

Основные риски технологии deepfake и способы их обнаружения - Статьи

Что такое дипфейк?

Deepfakes - это термин для СМИ, в которых лицо на видео или фотографии заменяется внешностью другого человека. Термин представляет собой комбинациюглубокое обучение"И"подделкаОн использует алгоритмы машинного обучения и искусственного интеллекта для создания мультимедийных материалов, которые выглядят совершенно реалистично, но являются искусственными.

В самом простом случае вы можете найти лицо, наложенное на другую модель. В своих стремительно развивающихся наихудших условиях технология дипфейка встраивает ничего не подозревающих жертв в фальшивые порно видео, фейковые новости, розыгрыши и многое другое.

Каковы риски дипфейков?

поддельные фотографии всегда присутствует. Выявление того, что фальшивое, а что нет, - обычная часть жизни, особенно после появления цифровых медиа. Но проблемы, которые создает технология deepfake, разные, обеспечивая беспрецедентную точность для поддельных фотографий и воспроизведенных видео.

Одним из первых дипфейков, охвативших более широкую аудиторию, стал Джордан Пил, который выдал себя за Барака Обаму в видео, в котором обсуждается рассматриваемая проблема:

Видео выглядит грубо, со странным звуком и шишками на лице клона. Однако демонстрирует технику глубокого фейка.

Или вы когда-нибудь задумывались, что было бы, если бы Уилл Смит сыграл Нео в «Матрице» вместо Киану Ривза (я имею в виду, кто не играл ?!)? Мне больше не интересно:

Эти видео не являются вредоносными, поскольку для их компиляции требуются сотни часов машинного обучения. Но сама технология доступна любому, у кого есть достаточно времени для обучения и вычислительной мощности, связанной с ней. Поначалу барьер для использования техники глубокой подделки был очень высок. Но по мере того, как технологии улучшаются и барьеры для входа резко снижаются, все больше и больше людей начинают использовать дипфейки для множества негативных и вредных вещей.

Прежде чем мы углубимся в темную сторону технологии дипфейка, вот Джим Керри, который заменил Джека Николсона в The Shining:

Основные риски технологии deepfake и способы их обнаружения - Статьи

1. Поддельная порнография ряда знаменитостей.

Одна из основных угроз со стороны технологии deepfake - это порнография, или, как ее еще называют, фальшивая порнография. Существуют десятки тысяч фейковых видео с лицами известных женщин, таких как Эмма Уотсон, Натали Портман и Тейлор Свифт.

Все они используют поддельные алгоритмы машинного обучения, чтобы вырезать лицо знаменитости на теле актрисы, и все они привлекают десятки миллионов просмотров на многих веб-сайтах с контентом для взрослых.

Однако ни один из этих сайтов ничего не делает с дипфейками знаменитостей.

Джорджио Патрини говорит: «Пока не будет веской причины попытаться отфильтровать их, ничего не произойдет». «Люди по-прежнему смогут бесплатно загружать материалы такого типа без каких-либо последствий на эти веб-сайты, которые просматривают сотни миллионов людей».

Эти видеоролики являются эксплуататорскими и далеко не свободными от жертв, поскольку некоторые создатели контента заявляют, что они являются дипфейками.

2. Поддельная порнография, затрагивающая обычных людей.

Что может быть хуже фейкового порно со знаменитостями? Правильно: фальшивая порнография, которая показывает женщин, которые менее известны или непредсказуемы из-за того, что происходит вокруг них, и чьи жизни могут быть повреждены, если они будут подделаны в порно-видео или чем-то подобном. Исследование Cinecity выявило дипфейк-бота в приложении для обмена социальными сообщениями Telegram, который создал более 100.000 фейковых фотографий обнаженной натуры. Многие фотографии были украдены из учетных записей социальных сетей, на которых изображены парни, подруги, жены, матери и т. Д.

Бот является крупным достижением в технологии дипфейков, поскольку бот для загрузки изображений не требует текущих знаний о дипфейках, машинном обучении или искусственном интеллекте. Это автоматизированный процесс, для которого требуется одно изображение. Вдобавок ко всему, бот Telegram, похоже, работает только с женскими фотографиями, а премиальные подписки (больше фотографий, удаленный водяной знак) очень дешевы.

Как и дипфейк-изображения знаменитостей, дипфейк-изображения ботов Telegram являются эксплуататорскими, оскорбительными и аморальными. Она может легко получить доступ к почтовому ящику супруга, партнера, члена семьи, коллеги или владельца бизнеса, потенциально разрушая жизни в процессе. Возможность вымогательства и других форм вымогательства очень высока и увеличивает угрозу со стороны существующих проблем, таких как порно из мести.

Распространение дипфейков в Telegram также приводит к другой проблеме. Telegram - это служба обмена сообщениями, которая ориентирована на конфиденциальность и не сильно мешает своим пользователям. У него есть политика по удалению порно-ботов и других ботов, связанных с материалами для взрослых, но в данном случае он ничего не сделал.

3. Обманчивый материал

Вы видели, как Джордан Пил играл Обаму. В этом видео он предупреждает об опасности дипфейков. Одна из основных проблем, связанных с технологией дипфейка, заключается в том, что кто-то создаст и опубликует видео, которое настолько реалистично, что так или иначе приведет к трагедии.

Некоторые люди говорят, что в самых крайних случаях видеоконтент deepfake может спровоцировать войну. Но есть и другие серьезные последствия. Например, поддельное видео, на котором крупная корпорация или генеральный директор банка делает злонамеренное заявление, может привести к краху фондового рынка. Опять же, он экстремист. Но реальные люди могут проверить видео и убедиться в его достоверности, в то время как мировые рынки моментально реагируют на новости, и происходит автоматическая продажа.

Еще одна вещь, которую следует учитывать, - это размер. Поскольку стоимость создания дипфейк-контента увеличивается, увеличивается вероятность получения огромного количества дипфейк-контента для одного и того же человека, с упором на отправку одного и того же фальшивого сообщения в разных цветах, местах, шаблонах и многом другом.

4. Отказ от реальных материалов

Вы должны учитывать, что дипфейки станут невероятно реалистичными как продолжение обманных и фейковых материалов. Настолько, что люди начнут сомневаться, настоящее видео или нет, независимо от содержания.

Если кто-то совершил преступление и единственным доказательством является видео, что мешает им сказать: «Это фальшивка, это ложное доказательство»? И наоборот, как насчет того, чтобы подбросить фальшивые видеодоказательства, чтобы кто-то их нашел?

5. Под влиянием ложного мышления и социальных контактов.

На самом деле было много случаев, когда дипфейк-контент выдавал себя замышляющим. В профилях LinkedIn и Twitter подробно описаны высокоуровневые роли в стратегических организациях, однако таких личностей не существует и, скорее всего, они будут созданы с использованием технологии deepfake.

Однако это проблема не только дипфейков. С незапамятных времен правительства, шпионские сети и корпорации использовали поддельные профили и личности для сбора информации, продвижения повестки дня и манипулирования.

6. Фишинговые атаки, социальная инженерия и другие виды мошенничества.

Когда речь заходит о безопасности, социальная инженерия уже является проблемой. Люди хотят доверять другим. Это в нашей природе. Но это доверие может привести к нарушениям безопасности, краже данных и многому другому. Социальная инженерия часто требует личного контакта, будь то по телефону, с помощью видеозвонка и т. Д.

Допустим, кто-то может использовать глубокую подделку, чтобы имитировать бизнес-менеджера, чтобы получить доступ к кодам безопасности или другой конфиденциальной информации. В этом случае это может привести к потоку дипфейков.

Как распознать и обнаружить дипфейки

По мере повышения качества дипфейков важно открывать для себя методы дипфейков. Вначале было несколько незначительных анекдотов: размытые изображения, искажение видео и неровности, а также другие недостатки. Однако эти явные проблемы уменьшаются, а стоимость использования технологий быстро падает.

Не существует идеального способа обнаружить дипфейк-контент, но вот четыре полезных совета:

  • детали. Как бы хороша ни была технология дипфейков, есть еще мелочи, с которыми нужно бороться. В частности, мельчайшие детали в видео, такие как движение волос, движение глаз, структура щек, движение во время речи и ненормальные выражения лица. Движение глаз отличное. Хотя дипфейки теперь могут эффективно мигать (в первые дни это было основным сигналом), движение глаз все еще оставалось проблемой.
  • чувства. Привязанность к деталям - это страсть. Если кто-то делает сильное заявление, на его лице будут отражены различные эмоции, но при этом будут представлены детали. Техника глубокой подделки не может предложить такую ​​же глубину эмоций, как реальный человек.
  • непоследовательность. Качество видео на рекордно высоком уровне. Смартфон в вашем кармане может записывать и передавать в формате 4K. Если политический лидер делает заявление, он оказывается перед комнатой, заполненной первоклассной записывающей аппаратурой. Поэтому плохое качество записи, как визуальной, так и звуковой, является заметным противоречием.
  • Источник. Видео появляется на проверенной платформе? Платформы социальных сетей используют верификацию, чтобы гарантировать, что всемирно известных людей не подражают. Конечно, с платформами есть проблемы. Но проверка того, где транслируется или размещается особенно откровенное видео, поможет вам узнать, настоящее ли оно. Вы также можете попробовать Выполните обратный поиск изображений Для обнаружения других мест, где изображение находится в Интернете.

Инструменты глубокого обнаружения и предотвращения подделок

Вы не одиноки в борьбе с обнаружением дипфейков. Несколько крупных технологических компаний разрабатывают инструменты для обнаружения дипфейков, в то время как другие платформы принимают меры для постоянного предотвращения дипфейков.

Например, средство обнаружения глубоких подделок Microsoft, Microsoft Video Authenticator, проанализирует его в течение нескольких секунд и сообщит пользователю о его подлинности (см. Пример файла GIF ниже). В то же время Adobe позволяет вам подписывать контент цифровой подписью, чтобы защитить его от подделки.

Такие платформы, как Facebook и Twitter, уже запретили вредоносный дипфейк-контент (дипфейк-контент, такой как Уилл Смит в «Матрице», по-прежнему честная игра), в то время как Google работает над инструментом анализа текста в речь, чтобы противостоять фальшивым звуковым фрагментам.

Дипфейки идут - и они поправляются

Дело в том, что с тех пор, как в 2018 году технология deepfake стала широко распространенной, ее основное применение - жестокое обращение с женщинами. Будь то создание фейкового порно с изображением лица знаменитости или раздеваясь кого-то в социальных сетях, все это сосредоточено на эксплуатации, манипулировании и унижении женщин по всему миру.

Нет сомнений в том, что надвигается фальшивый бунт. Распространение таких технологий представляет опасность для общества, но есть мало средств, чтобы остановить их продвижение вперед.

Перейти к верхней кнопке