Дипфейк-метка
Насколько эффективной будет маркировка синтезированного нейросетью контента
Доступность технологии дипфейка играет на руку злоумышленникам, которые активно используют ее в мошеннических схемах. Маркировка синтезированных с помощью нейросети видео- и фотоизображений, а также аудиоконтента становится основным способом борьбы с их распространением. Как правильно выстроить механизм противодействия дипфейкам и стоит ли на законодательном уровне регулировать это явление − в материале RSpectr.
ТРЕВОЖНЫЕ КАРТИНКИ
Генеративные технологии становятся все более совершенными. Недавно ИТ-гигант Open AI представил новую нейросеть Sora для создания полноценных реалистичных 60-секундных роликов, которые создаются на основе текстового описания. Новая разработка может упросить процесс создания дипфейков и спровоцировать рост их числа, бьют тревогу эксперты.
Искусственный интеллект (ИИ) выводит создание фейков на новый уровень доступности, Sora стала лишь еще одной вехой развития проблемы, которая обсуждается в научных, правовых и политических кругах уже давно, отметил в беседе с RSpectr заместитель исполнительного директора по IT & Data Science Центра НТИ по большим данным МГУ имени М.В. Ломоносова Александр Бирюков.
Sora и нейросети подобного класса действительно могут способствовать упрощению производства дипфейков, так как снижают технический порог входа для создания подобного контента, прокомментировал RSpectr эксперт по разработке сложных ИИ-проектов компании «Наносемантика» Григорий Шершуков.
Григорий Шершуков, «Наносемантика»:
– Вспомним истории с генерацией изображений, когда в конкурсе электронных картин было выбрано победителем сгенерированное изображение, или появления фото Папы Римского в белом пуховике дорогой фирмы. Обе были вызваны ростом возможностей технологий, их доступностью и интересом пользователей.
По данным Sumsub, в 2023 году количество дипфейков в мире увеличилось в 10 раз по сравнению с годом ранее. При этом в Северной Америке количество случаев обнаружения фальшивого контента выросло в прошлом году на 1740%.
В России же дипфейки часто применяют злоумышленники в своих мошеннических схемах. По данным компании RTM Group, в январе мошенники провели более 2 тыс. атак на россиян с помощью дипфейков.
ОСОБЕННОСТИ МАРКИРОВКИ
На этом фоне Open AI и другие ИТ-гиганты заявили на прошедшей в феврале 2024 года Мюнхенской конференции по безопасности о создании отраслевого альянса, призванного помешать применению дипфейк-технологии в выборных кампаниях 2024 года. А вице-президент Microsoft Брэд Смит указал на важность контроля над реалистичными дипфейками.
Коалиция технологических компаний по борьбе с фейковым контентом C2PA (Coalition for Content Provenance and Authenticity) совместно с ИТ-корпорациями разработала технологические стандарты, которые будут предотвращать стремительное распространение фальшивого контента. Одним из основных способов его маркировки называют нанесение водяных знаков.
Григорий Шершуков, «Наносемантика»:
− Маркировка водяным знаком может быть одним из методов для отсечения части сгенерированного контента для идентификации источника и подлинности контента. Технически это может быть реализовано путем внедрения невидимых или слабо заметных знаков, которые могут быть обнаружены специализированными программами.
Александр Бирюков, МГУ имени М.В. Ломоносова:
− Необходимо разрабатывать распознающие модели-дискриминаторы. По сути, это ИИ, главной целью которого является классификация контента, не содержащего каких-либо маркеров, на фейковый и настоящий. Этакий «Антиплагиат» в задаче поиска фейков.
Однако, обратил внимание эксперт, основная сложность применения этого способа заключается в том, что
ВОЗНИКНЕТ «ГОНКА ВООРУЖЕНИЙ» – ДИСКРИМИНАТОРЫ ДОЛЖНЫ БЫТЬ ВСЕГДА НЕ МЕНЕЕ МОЩНЫМИ И ПРОДВИНУТЫМИ, ЧЕМ ГЕНЕРАТОРЫ КОНТЕНТА
Регистрация существующих ИИ-моделей, как и маркировка контента, фактически невозможна, ведь достаточно доучить модель на своих данных, и получится новая модель, ее выдача будет отличаться от зарегистрированной (маркируемой). Этот путь ведет лишь к бюрократизации отрасли, отметил в беседе с RSpectr руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров.
Эксперт отмечает, что
ПОДОБНЫЕ МЕТОДЫ ОБНАРУЖЕНИЯ ДОЛЖНЫ ПОСТОЯННО ОБНОВЛЯТЬСЯ, ЧТОБЫ ПРОТИВОСТОЯТЬ НОВЫМ СПОСОБАМ ОБХОДА ЗАЩИТЫ
Сейчас идентификация дипфейков – это сложная и многомерная задача, в которой традиционные методы анализа показывают крайне малую эффективность, прокомментировал RSpectr основатель и CEO компании Mirey Robotics Андрей Наташкин. Эксперт считает, что бороться с фейками, которые генерируются с помощью машинного обучения, должен искусственный интеллект.
КОМПЛЕКСНЫЙ ПОДХОД
Технические стандарты не должны быть единственным механизмом в борьбе с дипфейками, подчеркивают эксперты.
Григорий Шершуков, «Наносемантика»:
− Самый лучший способ из комплекса мер по борьбе с дезинформацией – развитие критического мышления и информирование о наличии подобных технологий, то есть знакомство пользователей с возможными вариантами дипфейков.
Александр Бирюков напомнил, что наиболее уязвимы с точки зрения цифровой безопасности старшее поколение и дети. Поэтому просветительская идея станет важным дополнением, которое обезопасит население от мошеннических схем с применением дипфейков.
Александр Бирюков, МГУ имени М.В. Ломоносова:
− Важно активно объяснять, что теперь, если вам пришло видео или аудиозапись с чужого номера, но с голосом и даже внешностью на видео один в один, как у вашего родственника или друга, который просит вас на записи срочно скинуть денег на этот номер, потому что тот попал в аварию, – это, скорее всего, фейк.
Эксперт считает, что
ЛЮБАЯ ЦИФРОВАЯ ИНФОРМАЦИЯ ПО УМОЛЧАНИЮ ДОЛЖНА ВОСПРИНИМАТЬСЯ СКЕПТИЧЕСКИ И ПОДВЕРГАТЬСЯ ДОПОЛНИТЕЛЬНОЙ ПРОВЕРКЕ
Игорь Бедеров, T.Hunter:
− В качестве альтернативы маркировки контента, создаваемого ИИ, я предложил бы ужесточить регуляцию генерации персонифицированного контента: голос и фото ныне живущего человека могут быть синтезированы только им самим или с его письменного согласия.
Возникает вопрос: кто будет осуществлять контроль за дипфейками? За рубежом ответственность за отслеживание подобного контента возложена на ИТ-гигантов: Microsoft, Open AI, Meta*, Adobe.
Григорий Шершуков отмечает, что
КАК И НА ЗАПАДЕ, В РОССИИ МАРКИРОВКУ КОНТЕНТА МОГУТ ОСУЩЕСТВЛЯТЬ ИТ-КОРПОРАЦИИ
Григорий Шершуков, «Наносемантика»:
− Особую ответственность за это несут компании, предоставляющие размещение графического, видео- и аудиоконтента, −за применение средств обнаружения, верификации пользовательского контента.
По мнению юриста, члена комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павла Каткова, социальные сети могут внедрить механизм анализа картинок и самостоятельно выявлять изображения, похожие на продукт нейросетей. Если регулирование пойдет по этому пути, соцсети разделятся на «цифровые лагеря» и «острова свободы», предположил он в беседе с RSpectr.
НУЖНЫ ПРАВИЛА
Председатель правительства РФ Михаил Мишустин поручил Минцифры обеспечить к 19 марта «проработку мероприятий по выявлению недостоверных данных, в том числе генерируемых с использованием искусственного интеллекта».
Григорий Шершуков, «Наносемантика»:
− Скорее всего, сейчас преждевременно говорить о скором риске негативного воздействия на общество. Но точно важно задуматься над формированием законодательной базы в отношении дипфейков, а именно, чья экспертиза потребуется для проведения анализа вопросов и предложений.
По мнению Александра Бирюкова, в настоящее время распространение дипфейков, наносящих людям реальный ущерб, должно разбираться органами судебной власти. В этой части нужно соответствующее законодательство.
Андрей Наташкин, Mirey Robotics:
− Нужны принципиально новые подходы и решения, демонстрирующие высокий уровень глубинного анализа. Именно поэтому Михаил Мишустин поручил подобную задачу Минцифры РФ, которое координирует развитие нейросетей в нашей стране.
*Признана в России экстремистской и запрещена.
Анастасия Солянина