Борьба с дипфейками
ИТ / Статьи
дипфейки ИИ
29.2.2024

Дипфейк-метка

Насколько эффективной будет маркировка синтезированного нейросетью контента

Доступность технологии дипфейка играет на руку злоумышленникам, которые активно используют ее в мошеннических схемах. Маркировка синтезированных с помощью нейросети видео- и фотоизображений, а также аудиоконтента становится основным способом борьбы с их распространением. Как правильно выстроить механизм противодействия дипфейкам и стоит ли на законодательном уровне регулировать это явление − в материале RSpectr.

ТРЕВОЖНЫЕ КАРТИНКИ

Генеративные технологии становятся все более совершенными. Недавно ИТ-гигант Open AI представил новую нейросеть Sora для создания полноценных реалистичных 60-секундных роликов, которые создаются на основе текстового описания. Новая разработка может упросить процесс создания дипфейков и спровоцировать рост их числа, бьют тревогу эксперты.

Искусственный интеллект (ИИ) выводит создание фейков на новый уровень доступности, Sora стала лишь еще одной вехой развития проблемы, которая обсуждается в научных, правовых и политических кругах уже давно, отметил в беседе с RSpectr заместитель исполнительного директора по IT & Data Science Центра НТИ по большим данным МГУ имени М.В. Ломоносова Александр Бирюков.

Sora и нейросети подобного класса действительно могут способствовать упрощению производства дипфейков, так как снижают технический порог входа для создания подобного контента, прокомментировал RSpectr эксперт по разработке сложных ИИ-проектов компании «Наносемантика» Григорий Шершуков.

Григорий Шершуков, «Наносемантика»:

– Вспомним истории с генерацией изображений, когда в конкурсе электронных картин было выбрано победителем сгенерированное изображение, или появления фото Папы Римского в белом пуховике дорогой фирмы. Обе были вызваны ростом возможностей технологий, их доступностью и интересом пользователей.

По данным Sumsub, в 2023 году количество дипфейков в мире увеличилось в 10 раз по сравнению с годом ранее. При этом в Северной Америке количество случаев обнаружения фальшивого контента выросло в прошлом году на 1740%.

В России же дипфейки часто применяют злоумышленники в своих мошеннических схемах. По данным компании RTM Group, в январе мошенники провели более 2 тыс. атак на россиян с помощью дипфейков.

ОСОБЕННОСТИ МАРКИРОВКИ

На этом фоне Open AI и другие ИТ-гиганты заявили на прошедшей в феврале 2024 года Мюнхенской конференции по безопасности о создании отраслевого альянса, призванного помешать применению дипфейк-технологии в выборных кампаниях 2024 года. А вице-президент Microsoft Брэд Смит указал на важность контроля над реалистичными дипфейками.

Коалиция технологических компаний по борьбе с фейковым контентом C2PA (Coalition for Content Provenance and Authenticity) совместно с ИТ-корпорациями разработала технологические стандарты, которые будут предотвращать стремительное распространение фальшивого контента. Одним из основных способов его маркировки называют нанесение водяных знаков.

Григорий Шершуков, «Наносемантика»:

− Маркировка водяным знаком может быть одним из методов для отсечения части сгенерированного контента для идентификации источника и подлинности контента. Технически это может быть реализовано путем внедрения невидимых или слабо заметных знаков, которые могут быть обнаружены специализированными программами.

Александр Бирюков, МГУ имени М.В. Ломоносова:

− Необходимо разрабатывать распознающие модели-дискриминаторы. По сути, это ИИ, главной целью которого является классификация контента, не содержащего каких-либо маркеров, на фейковый и настоящий. Этакий «Антиплагиат» в задаче поиска фейков.

Однако, обратил внимание эксперт, основная сложность применения этого способа заключается в том, что

ВОЗНИКНЕТ «ГОНКА ВООРУЖЕНИЙ» – ДИСКРИМИНАТОРЫ ДОЛЖНЫ БЫТЬ ВСЕГДА НЕ МЕНЕЕ МОЩНЫМИ И ПРОДВИНУТЫМИ, ЧЕМ ГЕНЕРАТОРЫ КОНТЕНТА

Регистрация существующих ИИ-моделей, как и маркировка контента, фактически невозможна, ведь достаточно доучить модель на своих данных, и получится новая модель, ее выдача будет отличаться от зарегистрированной (маркируемой). Этот путь ведет лишь к бюрократизации отрасли, отметил в беседе с RSpectr руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров.

Эксперт отмечает, что

ПОДОБНЫЕ МЕТОДЫ ОБНАРУЖЕНИЯ ДОЛЖНЫ ПОСТОЯННО ОБНОВЛЯТЬСЯ, ЧТОБЫ ПРОТИВОСТОЯТЬ НОВЫМ СПОСОБАМ ОБХОДА ЗАЩИТЫ

Сейчас идентификация дипфейков – это сложная и многомерная задача, в которой традиционные методы анализа показывают крайне малую эффективность, прокомментировал RSpectr основатель и CEO компании Mirey Robotics Андрей Наташкин. Эксперт считает, что бороться с фейками, которые генерируются с помощью машинного обучения, должен искусственный интеллект.

КОМПЛЕКСНЫЙ ПОДХОД

Технические стандарты не должны быть единственным механизмом в борьбе с дипфейками, подчеркивают эксперты.

Григорий Шершуков, «Наносемантика»:

− Самый лучший способ из комплекса мер по борьбе с дезинформацией – развитие критического мышления и информирование о наличии подобных технологий, то есть знакомство пользователей с возможными вариантами дипфейков.

Александр Бирюков напомнил, что наиболее уязвимы с точки зрения цифровой безопасности старшее поколение и дети. Поэтому просветительская идея станет важным дополнением, которое обезопасит население от мошеннических схем с применением дипфейков.

Александр Бирюков, МГУ имени М.В. Ломоносова:

− Важно активно объяснять, что теперь, если вам пришло видео или аудиозапись с чужого номера, но с голосом и даже внешностью на видео один в один, как у вашего родственника или друга, который просит вас на записи срочно скинуть денег на этот номер, потому что тот попал в аварию, – это, скорее всего, фейк.

Эксперт считает, что

ЛЮБАЯ ЦИФРОВАЯ ИНФОРМАЦИЯ ПО УМОЛЧАНИЮ ДОЛЖНА ВОСПРИНИМАТЬСЯ СКЕПТИЧЕСКИ И ПОДВЕРГАТЬСЯ ДОПОЛНИТЕЛЬНОЙ ПРОВЕРКЕ

Игорь Бедеров, T.Hunter:

 В качестве альтернативы маркировки контента, создаваемого ИИ, я предложил бы ужесточить регуляцию генерации персонифицированного контента: голос и фото ныне живущего человека могут быть синтезированы только им самим или с его письменного согласия.

Возникает вопрос: кто будет осуществлять контроль за дипфейками? За рубежом ответственность за отслеживание подобного контента возложена на ИТ-гигантов: Microsoft, Open AI, Meta*, Adobe.

Григорий Шершуков отмечает, что

КАК И НА ЗАПАДЕ, В РОССИИ МАРКИРОВКУ КОНТЕНТА МОГУТ ОСУЩЕСТВЛЯТЬ ИТ-КОРПОРАЦИИ

Григорий Шершуков, «Наносемантика»:

 Особую ответственность за это несут компании, предоставляющие размещение графического, видео- и аудиоконтента, −за применение средств обнаружения, верификации пользовательского контента.

По мнению юриста, члена комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павла Каткова, социальные сети могут внедрить механизм анализа картинок и самостоятельно выявлять изображения, похожие на продукт нейросетей. Если регулирование пойдет по этому пути, соцсети разделятся на «цифровые лагеря» и «острова свободы», предположил он в беседе с RSpectr.

НУЖНЫ ПРАВИЛА

Председатель правительства РФ Михаил Мишустин поручил Минцифры обеспечить к 19 марта «проработку мероприятий по выявлению недостоверных данных, в том числе генерируемых с использованием искусственного интеллекта».

Григорий Шершуков, «Наносемантика»:

− Скорее всего, сейчас преждевременно говорить о скором риске негативного воздействия на общество. Но точно важно задуматься над формированием законодательной базы в отношении дипфейков, а именно, чья экспертиза потребуется для проведения анализа вопросов и предложений.

По мнению Александра Бирюкова, в настоящее время распространение дипфейков, наносящих людям реальный ущерб, должно разбираться органами судебной власти. В этой части нужно соответствующее законодательство.

Андрей Наташкин, Mirey Robotics:

− Нужны принципиально новые подходы и решения, демонстрирующие высокий уровень глубинного анализа. Именно поэтому Михаил Мишустин поручил подобную задачу Минцифры РФ, которое координирует развитие нейросетей в нашей стране.

*Признана в России экстремистской и запрещена.

Анастасия Солянина

Изображение: RSpectr, Adobe Stock

Еще по теме

Рынок унифицированных коммуникаций на пороге консолидации. Причем тут экспорт?

Как правильно выбрать информационную систему и изменить работу медучреждения

Почему сейчас лучший момент для совершенствования сервисной поддержки дата-центров

Как крупный бизнес диктует собственные правила в технологическом секторе

Как собрать в одном доступе цифровые медицинские ИТ-помощники

Что нужно знать техлиду при запуске проектов на основе искусственного интеллекта

В каких отраслях промышленности искусственный интеллект находит применение

Как региональные фестивали стали источниками кадров для столичных компаний

Грозит ли сбой, аналогичный инциденту с Microsoft, критической инфраструктуре РФ

Стоит ли ожидать дефицита качественной информации для обучения ИИ-моделей

За счет чего российская цифровая техника будет востребована за рубежом

Как изменились подходы и скорость цифровизации за последние 20 лет

Почему будущих специалистов по информбезопасности разбирают еще со школы

Новые схемы интернет-мошенников и как им противостоять

Почему буксует импортозамещение электронных компонентов