дипфейк
ИТ / Статьи
дипфейки персональные данные
14.9.2023

Дипфейк вам к лицу

Какой комплекс государственных и коммерческих решений позволит противостоять целенаправленной дезинформации

В технологии дипфейков злоумышленники все чаще используют персональные данные для максимального правдоподобия. Поскольку урон может быть не только моральный, финансовый, но и политический, государства наравне с ИТ-компаниями разрабатывают системы противодействия.

«ЗЕФИР» ДЛЯ КИМ ЧЕН ЫНА

Буквально на днях в Сети стали распространяться слухи «диванных» экспертов о том, что в ходе встречи президента РФ и главы КНДР переводчик северокорейского лидера использовал матерные слова. Причем матерился на русском: «В момент вступления на российскую землю я почувствовал боевой дух и … [удручающую] действительность», – якобы перевел слова Ким Чен Ына переводчик.

Чтобы прояснить ситуацию, была применена система мониторинга аудиовизуальных материалов «Зефир», которую внедрила в середине июня для борьбы с фейками АНО «Диалог Регионы».

По данным системы, в действительности переводчик не использовал нецензурную лексику, а сказал фразу «кипучая действительность».

«Искажение восприятия звука может быть обусловлено акцентом спикера, а также прикреплением к исходному видео в публикациях некорректного созвучного текстового описания», – объяснили журналистам «Газеты.ру» в АНО «Диалог Регионы».

Технологии дипфейков (ложное видео с использованием биометрических данных) появились буквально два-три года назад, но уже сегодня шагнули настолько далеко, что способны подменять речь на видеозаписи и подстраивать под нее движение губ. Например, при замене на английскую речь сохраняется узнаваемость голоса и даже русский акцент. Применение такого фейка показал на себе заместитель главы Комитета ГД по информполитике Антон Горелкин.

«Перед вами фрагмент моего недавнего выступления, обработанный нейросетью: она самостоятельно распознала текст, перевела его на английский язык и отредактировала видео таким образом, чтобы мимика выглядела правдоподобной. И даже позаботилась о русском акценте», – пишет депутат в своем Telegram-канале.

По его словам, инструменты для создания дипфейков становятся все доступнее, поэтому необходимо сделать все возможное, чтобы такие технологии не попали в руки преступников.

ТЕХНОЛОГИИ ИЛЛЮЗИЙ

Нейросети развиваются в геометрической прогрессии. Недавно группа по безопасности искусственного интеллекта (ИИ) Европейского института телекоммуникационных стандартов (European Telecommunications Standards Institute, ETSI) опубликовала свой отчет о рисках использования ИИ. Нейросеть способна манипулировать «образами цифровой идентичности». В исследовании Securing Artificial Intelligence (SAI); Automated Manipulation of Multimedia Identity Representations говорится об атаках на системы дистанционной биометрической идентификации и аутентификации с помощью дипфейков.

Удаленная идентификация с помощью видео применяется многими европейскими банками для открытия счетов клиентов и обеспечения соответствия качества услуг стандартам. Системы распознавания голоса также используются для аутентификации пользователей при подтверждении транзакций. Недавно работодатели стали устраивать сотрудников дистанционно, что привело к подлогам за счет применения дипфейков. Уровень безопасности этих систем и их способность противостоять дипфейк-атакам не всегда эффективны, пишут аналитики.

Биометрические данные – идеальная добыча для полного вооружения дипфейков под преступные цели. Также дипфейк-атаки включают социальную инженерию – например, ИИ имитирует официальное лицо или старшего по должности и от их имени направляет запрос сотруднику на перевод денег. По данным исследования, 40% компаний уже столкнулись с подобным кибермошенничеством.

Авторы отчета считают, что сегодня нет панацеи от дипфейков, поэтому бороться с ними следует комплексом мер на различных уровнях

Необходима просветительская работа, привлечение внимания к проблеме, разработка регулирующих актов, требующих маркировки дипфейков. Важно повышать технический уровень и методы обнаружения дипфейков и проводить криминалистическую экспертизу материалов, использовать ИИ-системы, «натасканные» на поиск фальсифицированного контента, говорится в документе.

«Более надежным методом противостояния рискам для компаний и организаций может стать разработка тщательно проработанных процессов, где важные решения и транзакции одобряются не на основе внутренней биометрической аутентификации, но всегда подтверждаются по стандартной процедуре, включающей мультифакторную аутентификацию», – советуют авторы отчета.

ТЕХНОЛОГИЧЕСКАЯ ПОГОНЯ ЗА РАЗОБЛАЧЕНИЕМ

Скорость обновления дипфейков крайне высокая, а современные модули их обнаружения зачастую не успевают и настроены на устаревшие решения. Так, в 2022 году команда исследователей из университета штата Пенсильвания (США) и Чжэцзянского и Шаньдунского университетов (Китай) изучила восприимчивость к дипфейкам некоторых из крупнейших в мире систем аутентификации на основе лица. Как показали результаты исследования, большинство систем уязвимы к развивающимся новым формам дипфейков.

В ходе исследования были проведены атаки на основе дипфейков с использованием платформы, развернутой в системах Facial Liveness Verification (FLV). Обычно они поставляются крупными поставщиками и продаются в качестве услуги нижестоящим клиентам, таким как авиакомпании и страховые компании. Facial Liveness предназначен для отражения использования таких методов, как атаки со стороны изображения, использование масок и предварительно записанного видео, так называемые «мастер-лица» и другие формы клонирования визуальной идентификации.

Система оказалась малоэффективной. «Даже если обработанные видеоролики кажутся нереальными для людей, они все равно могут обойти текущий механизм обнаружения дипфейков с очень высокой вероятностью успеха», – отметили специалисты.

К тому же выяснилось, что текущая конфигурация систем проверки лиц предвзято относится к белым мужчинам. Лица женщин и цветных меньшинств оказались более эффективны в обходе систем проверки, подвергая клиентов этих категорий большему риску взлома с помощью методов, основанных на дипфейках.

В отчете эксперты предполагают, противостоять угрозе можно за счет просветительской работе, разработке регулирующих актов, требующих маркировки дипфейков

Такие атаки можно сделать менее успешными при помощи высокоуровневых запросно-ответных протоколов. Например, для видеоидентификации можно ввести необходимость совершить специфические движения, передвинуть объекты рядом, а для голосовой – попросить произнести сложно выговариваемые слова.

Летом этого года замглавы Минцифры Александр Шойтов сообщал журналистам, что российские компании и государство разрабатывают технологии по выявлению дипфейков.

«Тут есть две задачи, первая – определить, действительно это исходное изображение или оно переделанное. Это тоже технологически важная проблема, которой сейчас занимаются. И вторая – это направление, связанное с тем, чтобы мы могли некоторым образом подписать исходное изображение и тем самым определить, что оно оригинальное. Что касается нормативного закрепления, я думаю, что это будет немного позже», – сообщил он журналистам. Первой ласточкой стала система «Зефир», но ее будет явно мало.

«Важно продолжать разработку систем, которые помогают в выявлении дипфейков. Сегодня применение таких систем нужно масштабировать, так как они становятся обязательным условием обеспечения информационной безопасности наших граждан», – сообщил в своем Telegram-канале член Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

Подготовил Денис Кунгуров

Еще по теме

Почему буксует импортозамещение электронных компонентов

Почему рынок коммерческих дата-центров нуждается в регулировании

Что ждет начинающего тестировщика в 2024 году

Как найти перспективные зарубежные рынки для российских решений

Какие угрозы несет интернет тел человечеству

Успеют ли банки заменить импортный софт и оборудование до 2025 года

Зачем компании вкладывают деньги в ИТ-состязания?

Импортозамещение и внутренняя разработка ПО в страховании

Почему рынок информационных технологий РФ возвращается к классической дистрибуции

Что сделано и не сделано в цифровизации России за 2023 год

Как заботу о вычислениях переложить на вендоров и почему не все к этому готовы

Когда российский бизнес начнет замещать импортное ИТ-оборудование

Чего добились за два года активного импортозамещения ПО

Как искусственный интеллект меняет банковскую систему РФ

Как проходит цифровая трансформация отечественного госсектора