Являются ли человеческие возможности или искусственный интеллект более эффективными в обнаружении технологий дипфейков?

В технологическую эпоху, когда мощность компьютеров и моделей искусственного интеллекта значительно возросла, распространенность дипфейков возросла и стала интересовать всех. Дипфейкинг означает создание визуального или аудиоконтента, который выглядит так, как будто он был записан людьми в высоком разрешении. Дипфейки угрожают всем аспектам жизни общества.

Наша способность выявлять фейковый контент имеет решающее значение для нейтрализации дезинформации, но по мере совершенствования технологий искусственного интеллекта, кому мы можем доверить обнаружение дипфейков? Здесь возникает вопрос: кто лучше обнаруживает глубокие фейки: люди или искусственный интеллект?

На протяжении тысячелетий люди успешно различали звуки, лица и понимали языки. Но смогут ли машины с искусственным интеллектом превзойти эти возможности? В этой статье рассматриваются проблемы и разработки в области обнаружения дипфейков, а также сравниваются возможности человеческого и искусственного интеллекта в этом контексте. Проверять Как узнать, модифицировано ли видео дипфейком?

Превосходят ли человеческие возможности или искусственный интеллект в обнаружении дипфейковых технологий? - Искусственный интеллект

Опасности дипфейков

По мере развития технологий искусственного интеллекта опасность дипфейков представляет собой все большую угрозу для всех нас. Вот краткий обзор некоторых наиболее актуальных проблем, связанных с дипфейками:

  1. Дезинформация: Поддельные видео и аудиозаписи могут распространять вводящую в заблуждение информацию, например фейковые новости.
  2. кража личных данных: Выдавая себя за отдельных лиц, дипфейки могут навредить репутации людей или ввести в заблуждение всех, кого они знают.
  3. Национальная безопасность: Очевидным фейковым сценарием войны являются сфабрикованные кадры или аудиозаписи, на которых мировой лидер разжигает конфликт.
  4. Гражданские беспорядки: Партии также могут использовать вводящие в заблуждение видеозаписи и аудиоклипы, чтобы разжечь гнев и гражданские беспорядки среди определенных групп.
  5. Информационная безопасность: Киберпреступники уже используют инструменты клонирования голоса на базе искусственного интеллекта, чтобы нацеливаться на людей с убедительными сообщениями от людей, которых они знают.
  6. Конфиденциальность и согласие: Злонамеренное использование дипфейков осуществляется отдельными лицами без их согласия.
  7. Доверие и его отсутствие: Если вы не можете отличить правду от обмана, точная информация становится столь же ненадежной.

Дипфейки станут более убедительными, поэтому нам нужны мощные инструменты и методы для их обнаружения. Искусственный интеллект предоставляет один из таких инструментов в виде моделей обнаружения дипфейков. Однако, как и алгоритмы, предназначенные для распознавания написанного искусственным интеллектом текста, инструменты обнаружения дипфейков не идеальны и никогда не будут абсолютно точными.

В настоящее время человеческое суждение — единственный инструмент, на который мы можем положиться. Итак, можем ли мы лучше алгоритмов распознавать дипфейки?

Могут ли алгоритмы обнаруживать дипфейки лучше, чем люди?

Дипфейки представляют собой настолько серьезную угрозу, что гигантские технологические компании и исследовательские группы выделяют огромные ресурсы на исследования и разработки. В 2019 году такие компании, как Meta, Microsoft и Amazon, предложили призы в размере XNUMX миллиона долларов во время конкурса. Вызов Deepfake Detection Для наиболее точной модели обнаружения.

Самая эффективная модель имела точность 82.56% по набору данных общедоступных видео. Однако когда те же модели были протестированы на «наборе данных черного ящика» из 10000 65.18 невидимых видео, наиболее эффективная модель имела точность только XNUMX%.

У нас также есть множество исследований, анализирующих эффективность инструментов обнаружения дипфейков с использованием искусственного интеллекта против людей. Конечно, результаты варьируются от исследования к исследованию, но в целом люди либо равны, либо превосходят показатели успеха инструментов обнаружения дипфейков.

Одно исследование, опубликованное в 2021 году, показало... PNAS «Обычные люди-наблюдатели» достигли немного более высокой точности, чем ведущие инструменты обнаружения дипфейков. Однако исследование также показало, что участники-люди и модели ИИ были подвержены различным типам ошибок.

Интересно, что исследования, проведенные... Сиднейский университет Я обнаружил, что человеческий мозг подсознательно более эффективно обнаруживает дипфейки, чем наши сознательные усилия. Проверять Основные риски технологии дипфейков и способы их обнаружения.

Откройте для себя визуальные подсказки в технологии дипфейков

Наука обнаружения дипфейков сложна, и необходимый анализ варьируется в зависимости от характера отснятого материала. Например, фейковое видео северокорейского лидера Ким Чен Ына 2020 года по сути представляет собой дискуссионное видео. В этом случае наиболее эффективным способом обнаружения дипфейков может стать анализ фонем (движений рта) и фонем (звуков голоса) на предмет несоответствий.

Эксперты-люди, обычные зрители и алгоритмы могут выполнять этот тип анализа, даже если результаты различаются. Он указывает Массачусетский Институт Технологий (MIT) Восемь вопросов, которые помогут выявить фейковые видео:

  1. Обратите внимание на лицо. Сложные дипфейковые манипуляции часто включают в себя трансформацию лица.
  2. Обратите внимание на щеки и лоб.. Кожа кажется слишком гладкой или морщинистой? Соответствует ли возраст кожи возрасту волос и глаз? Они могут не совпадать по некоторым параметрам.
  3. Обратите внимание на глаза и брови. Появляются ли тени там, где вы ожидаете? Технология Deepfake может не полностью передать естественную физику сцены.
  4. Обратите внимание на очки. Есть ли блики? Много ли бликов? Меняется ли угол ослепления при движении человека? Опять же, технология дипфейков может не полностью отражать естественную физику освещения.
  5. Обратите внимание на волосы на лице или их отсутствие.. Эти волосы на лице выглядят настоящими? Технология Deepfake может добавлять или удалять усы, бакенбарды или бороду. Однако технология deepfake может оказаться неспособной создать полностью естественную трансформацию волос на лице.
  6. Обратите внимание на родинки на лице. Родинка выглядит настоящей?
  7. Обратите внимание на ресницы. Человек моргает достаточно или слишком часто?
  8. Обратите внимание на движения губ. Некоторые дипфейки полагаются на синхронизацию губ. Движения ваших губ выглядят нормально?

Новейшие инструменты обнаружения дипфейков на базе искусственного интеллекта могут анализировать одни и те же факторы, опять же, с разной степенью успеха. Ученые, работающие с данными, также постоянно разрабатывают новые методы, такие как обнаружение нормального кровотока на лицах говорящих на экране. Новые методы и улучшения существующих методов могут привести к тому, что инструменты обнаружения дипфейков с искусственным интеллектом в будущем будут постоянно превосходить людей.

Обнаружение звуковых подсказок в дипфейках

Обнаружение поддельного звука — совершенно другая задача. Без визуальных подсказок видео и возможности идентифицировать аудиовизуальные несоответствия обнаружение дипфейков во многом зависит от аудиоанализа (в некоторых случаях могут помочь и другие методы, такие как проверка метаданных).

Я нашел исследование, которое вы опубликовали Университетский колледж Лондона В 2023 году люди смогут обнаружить фальшивый звук на 73% (на английском и китайском языках). Как и в случае с поддельными видеороликами, люди-слушатели часто интуитивно обнаруживают неестественные речевые модели в речи, генерируемой ИИ, даже если они не могут определить, что звучит неестественно.

Общие признаки включают в себя:

  1. Слоги.
  2. Отсутствие экспрессии.
  3. Фоновый шум или помехи.
  4. – Непоследовательность в голосе или речи.
  5. Отсутствие «полноты» в звуках.
  6. Слишком письменная подача.
  7. Никаких дефектов (фальстарты, исправления, откашливание и т.п.).

Опять же, алгоритмы также могут анализировать речь на предмет тех же сигналов дипфейка, но новые методы делают инструменты еще более эффективными. Она рассказала о проведенном ею исследовании. USENIX Паттерны реконструкции речевого тракта с использованием искусственного интеллекта, которые не имитируют естественную речь. Все сводится к тому, что звуковые генераторы искусственного интеллекта производят идентичный звук через узкие голосовые тракты (размером с соломинку) без естественных движений человеческой речи.

Предыдущие исследования, проведенные Институт Хорста Герца Он проанализировал настоящий и фальшивый звук на английском и японском языках, выявив тонкие различия в высоких частотах реальной и фальшивой речи.

Как контрасты речевого тракта, так и высокие частоты могут восприниматься слушателями-людьми и моделями обнаружения искусственного интеллекта. В случае высокочастотных изменений модели ИИ теоретически могут стать более точными, хотя то же самое можно сказать и о дипфейках ИИ.

Дипфейки обманывают людей и алгоритмы, но по-разному

Исследования показывают, что люди и новейшие инструменты обнаружения искусственного интеллекта могут аналогичным образом обнаруживать дипфейки. Процент успешной сдачи может варьироваться от 50% до 90+%, в зависимости от критериев теста.

Таким образом, люди и машины также в одинаковой степени обманываются дипфейками. Однако крайне важно, чтобы мы были уязвимы по-разному, и это может быть нашим самым большим преимуществом в борьбе с рисками технологии дипфейков. Объединение сильных сторон людей и инструментов обнаружения дипфейков смягчит их слабые стороны и повысит показатели успеха.

Например, я нашел Исследования Массачусетского технологического института Люди лучше распознавали фальшивые изображения мировых лидеров и знаменитостей, чем модели искусственного интеллекта. Также выяснилось, что моделям ИИ было трудно улавливать звук от нескольких людей, хотя предполагается, что это может быть результатом обучения алгоритмов на кадрах, содержащих отдельные голоса.

И наоборот, то же исследование показало, что модели ИИ превосходят людей по производительности при воспроизведении видеороликов низкого качества (размытых, зернистых, темных и т. д.), которые можно намеренно использовать для обмана зрителей. Аналогичным образом, современные методы обнаружения искусственного интеллекта, такие как мониторинг кровотока в определенных областях лица, включают анализы, которые люди не могут выполнить.

По мере разработки новых методов улучшится не только способность ИИ обнаруживать признаки, которые мы не можем обнаружить, но и его способность обманывать. Большой вопрос заключается в том, сможет ли технология обнаружения дипфейков превзойти сами дипфейки. Проверять Как противостоять угрозе виртуального похищения и защитить себя в Интернете? Распознавайте угрозы.

Общие вопросы

Вопрос 1. Что такое технология дипфейка?

Дипфейки — это технология, которая использует искусственный интеллект для создания визуального или аудиоконтента, который выглядит так, как будто он создан людьми с высокой точностью.

В2. Каковы преимущества дипфейков?

Технология Deepfake используется в широком спектре приложений, включая кино, игровую индустрию, безопасность, мошенничество и многое другое.

Вопрос 3. Как обнаружить глубокие фейки?

Продолжается прогресс в методах обнаружения дипфейков с использованием искусственного интеллекта, но человеческие инструменты и методы по-прежнему необходимы.

Вопрос 4. Какие проблемы возникают при обнаружении дипфейков?

Среди проблем — продолжающееся развитие технологий подделки и сложность отличить реальный контент от дипфейков.

Вопрос 5. Может ли искусственный интеллект превзойти человека в обнаружении глубоких фейков?

Искусственный интеллект добился значительного прогресса, но человеческие возможности по-прежнему важны в этом контексте.

В эпоху дипфейков взгляд на вещи по-другому

Инструменты обнаружения дипфейков на основе искусственного интеллекта будут продолжать совершенствоваться, как и качество самого дипфейкового контента. Если способность ИИ обманывать превышает его способность обнаруживать (как в случае с текстами, сгенерированными ИИ), человеческое суждение может стать единственным инструментом, который у нас останется для борьбы с дипфейками.

Каждый обязан распознавать признаки дипфейков и уметь их распознавать. Помимо защиты от мошенничества и угроз безопасности, все, что мы обсуждаем и делимся в Интернете, уязвимо для дезинформации, если мы теряем понимание реальности. Вы можете просмотреть сейчас Риски написания контента ИИ и как обнаружить текст, сгенерированный ИИ.

ДзТех

Я государственный инженер с большим опытом работы в области программирования, создания веб-сайтов, SEO и технического написания. Я увлечен технологиями и посвящаю себя предоставлению качественной информации общественности. Я могу стать более ценным ресурсом для пользователей, которые ищут точную и достоверную информацию об обзорах продуктов и специализированных приложениях в различных областях. Моя непоколебимая приверженность качеству и точности гарантирует, что предоставляемая информация заслуживает доверия и полезна для аудитории. Постоянное стремление к знаниям заставляет меня идти в ногу с новейшими технологическими разработками, гарантируя, что общие идеи будут передаваться в ясной и доступной форме.
Перейти к верхней кнопке