IT / Статьи
информбезопасность технологии
28.7.2022

Блокчейн против дипфейков

Стандарт подтверждения подлинности видео предотвратит распространение ложной информации в Сети

По мнению экспертов, софт для обнаружения видеоподделок всегда будет отставать от технологии их создания. Тем не менее новые методы выявления дипфейков появляются регулярно. Одно из решений – своеобразный ГОСТ уникальности изображения, который разрабатывает глобальный консорциум компаний IT-отрасли. Стандарт позволит внедрить эффективные механизмы проверки подлинности материалов.

В РЕКЛАМЕ И ПОЛИТИКЕ

Зародившись в киноиндустрии, синтезированное видео сегодня все чаще применяется в неблаговидных целях – для манипулирования общественным мнением, обмана биометрических систем распознавания лиц и т.д.

Но пока дипфейки делают в основном для развлечения, рассказал RSpectr руководитель отдела аналитики «СёрчИнформ» Алексей Парфентьев. Одна из последних работ – созданная в июле цифровая версия актера Киану Ривза, которую с трудом можно отличить от реального человека.

В индустрии рекламы с помощью технологии дипфейк можно подстраивать лица героев фильма под озвучку на разных языках, то есть сокращать затраты на производственные задачи, отметила в беседе с RSpectr руководитель отдела перспективных технологий Positive Technologies Александра Мурзина. Известен проект бизнесмена Михаила Прохорова Sensorium, который занимается организацией виртуального концерта Владимира Высоцкого, сейчас идет подготовка цифровых аватаров музыканта.

Развлекательные видеоподделки периодически затрагивают высших лиц. Недавно произошел розыгрыш глав европейских столиц, пранки организовали блогеры Лексус и Вован, напомнила А.Мурзина.

Есть примеры, когда сгенерированные видео имеют позитивное содержание в политике. На прошедших в Южной Корее выборах победил представитель неправящей партии «Сила народа» Юн Сок Ёль. Он выиграл гонку с маленьким перевесом в 0,7% в том числе благодаря тому, что имел цифрового двойника. С аватаром кандидата в президенты весной 2022 года общались миллионы человек, особенно проект увлек молодых людей.

ВОЙТИ В ДОВЕРИЕ

Созданные ИИ лица вызывают больше доверия, чем реальные, утверждают доктор Софи Найтингейл из Ланкастерского университета и профессор Хани Фарид из Калифорнийского университета в Беркли. Ученые представили результаты экспериментов, где синтезированные изображения выглядели более живо.

Около 95% дипфейков принимаются биометрическими системами распознавания лиц

Об этом говорят исследования, проведенные Павлом Коршуновым и Себастьеном Марселем из НИИ в швейцарском Мартиньи. Научную работу в обзоре методов генерации и выявления дипфейков упомянули аналитики Главного радиочастотного центра (ГРЧЦ). По словам авторов исследования, поддельные персонажи генерирует GAN – нейронная самообучающаяся сеть.

А.Мурзина считает, что бум инцидентов, связанных с биометрией, начался в прошлом году. В начале 2021 года банки начали предоставлять услугу кредитования по телефону с помощью голосовых слепков. Злоумышленники использовали эту схему, звоня жертвам, записывая их речь и используя личные данные для получения денег.

Операционный директор Group-IB Digital Risk Protection Владимир Калугин в разговоре с RSpectr подтвердил, что дипфейки активно используются для обмана биометрических систем распознавания лиц при регистрации поддельных аккаунтов на различных платформах и даже в государственных информационных системах. Но на текущий момент преступники скорее тестируют технологию, и массового ее применения пока не наблюдается, отметил эксперт.

Он выделил три основных сценария использования дипфейков в преступных целях

– Для шантажа, когда лицо жертвы подставляют в видео с компрометирующим содержимым, например, в порнографию, а потом требуют выкуп за нераспространение. Такой сценарий был замечен в Индии.

– Для привлечения внимания к какой-либо мошеннической схеме, когда необходимо лицо публичной персоны. Например, для подогрева интереса граждан к псевдоинвестициям был использован дипфейк на Олега Тинькова, а для криптомошенничества – Виталика Бутерина и Илона Маска.

– Для целевой атаки на компанию, когда подделывается личность руководителя или сотрудника с целью хищения денег и информации.

Владимир Калугин, Group-IB Digital Risk Protection:

– Как правило, такая атака осуществляется с помощью голосовых фейков, которые гораздо сложнее отличить от оригинала, чем видео. Ущерб от таких атак бывает очень серьезным: в 2019 году у энергетической компании похитили 220 тыс. евро, а в 2021 году у банка из ОАЭ – 35 млн долларов США.

А.Парфентьев напомнил об инциденте, произошедший в 2021 году в Китае. Злоумышленники с помощью дипфейков обманули госсистему на 76 млн долларов. От лица ненастоящих людей они создавали компании-пустышки и выдавали поддельные налоговые накладные.

Эксперт «СёрчИнформ» упомянул и недавнее заявление ФБР о новом сценарии с использованием видеоподделок.

Алексей Парфентьев, «СёрчИнформ»:

– Мошенники используют дипфейки, чтобы устроиться на удаленную работу в США, стремясь получить должность с возможностью доступа к различной чувствительной информации – персональным данным, коммерческим секретам и т.п.

ВИЖУ ПО ГЛАЗАМ

Существует четыре типа генерации дипфейков, по версии китайских ученых, исследование которых также приведено в статье ГРЧЦ:

  • синтез всего лица;
  • манипуляции с атрибутами – полом, возрастом, цветом волос;
  • смена идентификатора источника изображения;
  • изменение выражений лица, а также поз человека.

Эксперты из Индии обнаружили глубокие подделки по морганию глаз. Ученым помогла технология MesoNet, которая способна автоматически определять фальсификацию.

Китайские исследователи также отметили, что фальшивые образы часто выдает частота сердечных сокращений, при этом они подчеркивают: получение данной характеристики из видео – трудоемкая задача.

Владимир Калугин, Group-IB Digital Risk Protection:

– Определять дипфейки по глазам предлагают ученые из университета Эрлангена-Нюрнберга. Университет Олбани, в свою очередь, разработал методику распознавания с помощью двух нейронных сетей, которые фиксируют непроизвольные физиологические действия: дыхание, движение глаз, моргание. Программисты из Калифорнийского университета представили решение на основании изменений мимики и эмоций – такой метод, по их мнению, позволяет распознать дипфейк с вероятностью 99 процентов.

В прошлом году IT-эксперты State University of New York проанализировали тысячу дипфейк-роликов и выяснили, что поддельных персонажей выдавали зрачки. Если у настоящих людей они круглые, то у сгенерированных – неправильной формы.

Большинство видеофейков все еще плохо моргают, редко качественно выдерживают смену освещения или ракурса, а синтезированные голоса говорят с неестественными интонациями, говорит А.Парфентьев. Он отмечает, что

выявление подделок – это своего рода указание мошенникам, как усовершенствовать дипфейки

Алексей Парфентьев, «СёрчИнформ»:

– Недавно говорили о том, что в глазах на сгенерированных или подмененных лицах зрачки не отражают источник света. И почти сразу появились новые технологии, которые обошли эту проблему.

РАСПОЗНАТЬ С ПОМОЩЬЮ НАБОРОВ ДАННЫХ

Разработки по разоблачению дипфейков появляются постоянно. Летом 2022 года исследовательской службой конгресса США выпущен отчет «Глубокие фейки и национальная безопасность». В Америке активно развиваются проекты Media Forensics (MediFor) и Semantic Forensics (SemaFor), создаваемые под кураторством Минобороны, рассказал А.Парфентьев. По его словам, большинство подобных разработок основаны на том, чтобы выявлять дипфейки с помощью тех же нейросетей, что их генерируют, и это продуктивный подход.

Консорциум компаний IT-отрасли, в который входят Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC и Arm, в ближайшие годы внедрит стандарт подтверждения уникальности фото и видео. В его основе блокчейн-технологии, которые проверят подлинность материалов.

Эксперты вместе с тем отмечают уязвимость ИИ. Он не всегда видит мелкие детали на фальшивых видео из-за того, что они, как правило, выкладываются в Сеть со значительным сжатием. В результате алгоритмы подавляют множество мелких для человеческого взгляда деталей. А обучение систем распознавания на сжатых видео пока дает много ошибок.

Алексей Парфентьев, «СёрчИнформ»:

– Есть и ручные методы выявления подделок, что называется «на глаз». Исследователи публикуют в открытом доступе признаки, по которым можно разоблачить дипфейк, мы и сами делимся ими с нашими партнерами и клиентами в рамках обучающих курсов.

Александра Мурзина, Positive Technologies:

– В индустрии сложилось, что компании, которые предоставляют сервисы для возможности работы с биометрией, заботятся и о том, чтобы ее было трудно обмануть. Специалисты по безопасности «подсвечивают» неочевидные разработчикам вещи.

В.Калугин подтвердил, что в подавляющем большинстве случаев дипфейки, которые применяются мошенниками, возможно определить невооруженным глазом или на слух. По словам эксперта,

создание качественного фальшивого видеообраза требует значительных усилий и технических возможностей

Поэтому и используется оно редко, в основном для целевых атак.

Алексей Парфентьев, «СёрчИнформ»:

– Есть бесплатные программы, которые подделывают видео, но на то, чтобы сделать качественный дипфейк, уходит много времени. Есть софт, который сделает подделку за несколько часов, но для этого понадобится дорогой мощный компьютер. То есть стоит вопрос оправданности вложений.

В.Калугин считает, что

любые решения по определению дипфейков всегда будут выступать в роли догоняющих

Владимир Калугин, Group-IB Digital Risk Protection:

– Не так давно исследователи Пенсильванского, Чжэцзянского и Шаньдунского университетов выявили, что широко применяемая система Facial Liveness Verification настроена на устаревшие варианты дипфейков и не справляется с новыми.

Совместное исследование ученых из Австралии, Кореи и Франции подтверждает, что подход к повышению производительности методов обнаружения дипфейков заключается в создании постоянно обновляемого эталонного набора данных.

Исследователи Рурского университета год назад опубликовали отчет с предложением бороться с глубокими подделками с помощью обновляемых наборов данных. Представленный в исследовании образец построен на шести различных сетевых архитектурах и состоит из 104 тыс. сгенерированных аудиоклипов.

Отсутствие многосторонних наборов данных является проблемой для обнаружения дипфейков, констатируют и эксперты из КНР. Авторы приводят пример, что востребованный проект Microsoft Celeb собрал 10 млн изображений лиц почти 100 тыс. человек из интернета. Ресурс использовался для обучения систем распознавания лиц учеными со всего мира, но был удален из публичного доступа из-за подозрений в применении в неблаговидных целях.

Для противодействия распространению синтезированных изображений С.Найтингейл и Х.Фарид предложили разработать руководство по их созданию. По мнению авторов,

защитные меры могут включать внедрение надежных водяных знаков в сети синтеза видео, которые обеспечат последующий механизм для идентификации

В России утверждена дорожная карта по развитию «Новых коммуникационных интернет-технологий». Документ в числе прочего рассматривает технологии интеллектуальной генерации и распознавания контента DeepFake.

А.Парфентьев отметил, что не видит в России перспектив для подобных атак. По словам эксперта, «технологии, которые позволяли бы что-то оформить дистанционно, моргнув в камеру, в нашей стране не распространены». А раз нет вариантов для монетизации, то незачем ставить схему на коммерческие рельсы.

Эксперт добавил, что мошенникам пока выгоднее использовать старую добрую социнженерию с прямым обманом и запугиванием.

А.Мурзина подтвердила, что дипфейки не являются главной проблемой, например, в безопасности сервисов, которые работают с биометрией, и классические уязвимости там все еще более актуальны.

Изображение: RSpectr, Adobe Stock

Еще по теме

Почему растет значимость Data Protection Officer в организациях

Восемь шагов при выборе роутера для работы из дома

Требования об использовании только отечественного софта планируют распространить на всех владельцев КИИ

В РФ возрождается производство микросхем

Как операторы данных будут избегать наказания за утечки

IT-отрасль видит риски в упрощении регистрации продуктов в реестре российского ПО

Как настроить и запустить процессную аналитику в компании

Как бороться с закладками в программном обеспечении

Целесообразно ли выделение ИБ в отдельную отрасль?

Кого и как взламывали хакеры в первом квартале этого года

Новые технологии для микросхем позволят вырваться в лидеры

В 2021 году в мире было совершено свыше миллиарда атак на IoT-системы

Будущее искусственного интеллекта и как начать работать в этой сфере

Производители средств сетевой защиты РФ в новой парадигме информбезопасности

Новый проект в сфере подготовки кадров поможет развитию инновационных производств страны