Чем опасна цифровая подделка человека
Государства и IT-компании противостоят массовому распространению технологий создания дипфейков
Такие видеоизображения, созданные с помощью искусственного интеллекта (ИИ) и вводящие в заблуждение пользователей, появляются в Сети все чаще. IT-компании внедряют специализированный софт для выявления фальшивых роликов. В России борьба с дипфейками в июле 2021 года включена в одну из дорожных карт нацпрограммы «Цифровая экономика».
ИИ-ИНСТРУМЕНТ БЕЗ СПЕЦИАЛЬНЫХ ЗНАНИЙ
Грань между профессиональным и любительским контентом из-за обилия программ компьютерной графики постепенно стирается. Сегодня несложно найти инструменты для автоматизированного создания видео, в том числе дипфейков.
Они бы заняли первое место в списке неоднозначных цифровых технологий последних лет – из-за мощного дискредитирующего потенциала, который в них заложен, считает руководитель департамента информационной безопасности Syssoft Дмитрий Ковалев.
Разработчики предлагают подобные сервисы по доступным ценам, правда, предупреждают, что подменяют лица пользователей только в развлекательных целях, исключая мошеннические операции.
Как известно, распространение фейковой информации запрещено законом во многих странах, например, в Германии эту сферу регулирует закон Net Enforcement Act, в России – нормативный акт от 18 марта 2019 года №31-ФЗ.
Одним из последних популярных фальшивых видео стал набравший более 1,3 млн просмотров ролик с Илоном Маском, созданный московским программистом после запуска космического корабля Crew Dragon в мае 2021 года.
Дипфейки открывают большой простор для творчества в сфере киноиндустрии и маркетинга, рассказал RSpectr Д.Ковалев. Так, английский стартап Flawless с помощью нейросетей решает проблему плохого дубляжа в кино. Программа изучает, как актеры произносят звуки, и меняет движения их губ, обеспечивая идеальную синхронизацию при переводе.
Но ИИ не всегда применяется с пользой. Представители многих индустрий опасаются распространения дипфейков, которые могут привести к фишинговым атакам и краже исходного кода в компаниях. Об этом исследователям из Microsoft летом 2021 года говорили такие крупные игроки, как IBM, Airbus, Huawei.
Д.Ковалев назвал другие очевидные риски использования дипфейков:
- распространение заведомо ложных данных,
- вторжение в частную жизнь,
- разрушение репутации и личного бренда.
Беспокойство бизнеса небеспочвенно. ИИ-инструменты становятся все доступнее. В июле один из пользователей портала разработчиков GitHub опубликовал обновленную программу для создания дипфейков. Нейросеть DeepFaceLive в режиме реального времени накладывает придуманный образ на человека в кадре как в прямых трансляциях, так и в видеоконференциях. Автор подчеркивает, что для использования ИИ не требуется специальных знаний и, если следовать инструкции, легко перевоплотиться в любую знаменитость.
Созданные нейросетями видео множатся с ускоряющимися темпами. По данным Deeptrace,
с октября 2019 года по июнь 2020 года количество дипфейков в Сети увеличилось на 330%
Дмитрий Ковалев, Syssoft:
– Аудио- и видеороликов, сгенерированных ИИ, будет все больше. Причем с каждым днем такой контент начнет все незаметнее мимикрировать под оригинал.
ПОДДЕЛЬНЫЕ ЛЮДИ И ЗВЕЗДЫ
Основатель компании по информбезопасности «СёрчИнформ» Лев Матвеев в интервью RSpectr предупреждал о том, что при наступлении дипфейков важно защитить базы биометрической информации.
Лев Матвеев, «СёрчИнформ»:
– Представьте, если вам позвонит человек с номера директора, да еще и голос совпадает – не знаю, кто сможет противостоять этому обману и не поверить. Технология уже есть, и ее массовое применение – вопрос времени.
Подобный случай произошел в 2019 году в Великобритании. Мошенник заставил директора британской энергетической фирмы перевести 243 тыс. долларов, используя сымитированный с помощью ИИ голос его руководителя в немецкой головной компании.
Сбор биометрии широко распространен в Китае. Граждане страны привыкли с помощью лица оплачивать покупки, совершать платежи, в том числе через госуслуги. Мошенники воспользовались пробелами в обеспечении безопасности сервисов и с помощью дипфейков обманывали госсистему распознавания лиц КНР. Злоумышленники в течение двух лет покупали персональные данные с фотографиями людей на черном рынке, «оживляли» их и успешно проходили проверку систем распознавания. За это время им удалось заработать 76,2 млн долларов.
Самые распространенные жертвы нейросетей – политики и артисты.
Дипфейк-кадры Тома Круза, размещенные в непроверенной учетной записи TikTok в феврале 2021 года, собрали 11 млн просмотров
В преддверии выборов в Великобритании в позапрошлом году зрители удивились видео, в котором политические оппоненты Джереми Корбин и Борис Джонсон высказались в поддержку друг друга. Ролик создал британский исследовательский центр Future Advocacy для демонстрации того, насколько сложно распознать в наши дни дезинформацию.
Технологию опробовал и корейский телеканал MBN, который в конце прошлого года представил дипфейк своего собственного ведущего новостей Ким Чжу Ха.
Прогресс в сфере информационной безопасности – это всегда борьба щита и меча, напомнила RSpectr ведущий специалист по машинному обучению в Positive Technologies Александра Мурзина. По ее словам, существующие исследования основаны друг на друге.
Александра Мурзина, Positive Technologies:
– Одни придумывают очередной метод генерации контента, другие учатся его детектировать, но вскоре выходит новое исследование, которое обходит защиту и выглядит еще более реалистичным. Такие кейсы часто выкладываются в открытый доступ, презентуя именно математические достижения в этой области.
В ПРАВОВОЕ РУСЛО
Борьбу с фальшивыми видеоперсонажами в России включили в дорожную карту (ДК) развития новых интернет-технологий. Ее в июле утвердила правительственная комиссия в сфере цифрового развития. Документ* разработан «Ростелекомом» на основе проведенного компанией в конце 2020 года одноименного исследования. В докладе говорится, что
ИИ все глубже проникает в коммуникации, формируя контент для пользователя с учетом его психологии
Борис Глазков, вице-президент по стратегическим инициативам «Ростелекома»:
– Рекомендательные сервисы способны уже сейчас учитывать эмоциональное состояние человека. По сути, можно говорить о появлении сегмента цифровых технологий убеждения.
«Ростелеком» в качестве центра компетенций по данному направлению будет на постоянной основе осуществлять экспертную поддержку и участвовать в мониторинге реализации ДК.
«Системы распознавания сгенерированного контента сейчас не применяются в полной мере из-за незрелости решений. Однако к 2024 году, когда вероятность выявления вырастет до 90%, эти инструменты будут широко использоваться представителями государственных организаций, СМИ и корпорациями», – говорится в сообщении пресс-службы компании.
ПРОТИВОСТОЯТЬ ЭКСПАНСИИ НЕЙРОСЕТЕЙ
Кроме прочего, ДК подразумевает, что помешать широкому распространению технологии дипфейков сможет создание отечественного специализированного ПО. RSpectr поинтересовался у экспертов рынка, насколько это реально.
Д.Ковалев считает, что вряд ли софт может предотвратить создание дипфейка, однако технологии в ряде случаев смогут помочь выяснить, является видео оригиналом или подделкой.
А.Мурзина утверждает, что на данный момент нет хорошего инструмента, который бы с достаточной точностью умел определять искусственно сгенерированный контент.
Александра Мурзина, Positive Technologies:
– Пока нет возможности сделать алгоритм на эвристике** и приходится использовать технологии машинного обучения, чтобы на реальных и сгенерированных примерах обучать ИИ отличать фейки. Технически это непросто.
Дмитрий Ковалев, Syssoft:
– Создание такого ПО – долгая, дорогая и трудоемкая задача. Работа должна вестись по всем фронтам, в том числе на законодательном уровне. В Китае, например, в прошлом году заработал закон, регламентирующий публикацию дипфейков: запрещено размещать такой контент без видимой и различимой пометки.
Руководитель отдела продвижения продуктов компании «Код Безопасности» Павел Коростелев также подтвердил RSpectr, что эффективность софта – не самый важный момент в борьбе с фальшивыми образами. По его словам, если ИИ-видео станет легко создать, а его распространение останется без должного контроля, то противостоять экспансии нейросетей будет очень сложно. В процессе нивелирования дипфейков в интернете велика роль IT-компаний, считает эксперт.
Павел Коростелев, «Код Безопасности»:
– Многое будет зависеть от характера их использования и политики площадок, на которых они будут размещаться. При добавлении на YouTube видео могут проверяться на возможное искусственное изменение. В случае обнаружения дипфейка сервис сам его отфильтрует.
ДК предусматривает, что к 2024 году точность отечественных решений по выявлению сгенерированного контента должна достичь 70%
Получится ли добиться такого уровня, зависит от развития дипфейк-технологий, считает А.Мурзина.
Александра Мурзина, Positive Technologies:
– Сложные программы, способные детектировать самые распространенные техники, вероятно, будут требовать хороших вычислительных мощностей (видеокарт), которые доступны далеко не всем. Но сможет ли технология добиться хорошего качества и производительности на слабых компьютерах и гаджетах? Зависит от развития сегмента мобильных устройств в том числе. Все компании стараются двигаться в эту сторону, но кто будет быстрее – покажет время.
СЕРВИСЫ ПРОТИВ ДИПФЕЙКОВ
Рынок технологий распознавания сгенерированного контента еще не сформирован, но первые прототипы решений уже есть.
В начале этого года МВД РФ объявило тендер по выбору подрядчика в проект «Верблюд». Его целью станет разработка к ноябрю 2022 года кейса для выявления дипфейков. Его выиграло московское АО «Научно-промышленная компания “Высокие технологии и стратегические системы”».
Ученые Самарского университета им.С.П.Королева ведут разработку сканера дипфейков, который поможет определять подлинность фотографий и видео. Решение появится до конца года.
Значительно продвинулись вперед глобальные инициативы по борьбе с распространением ложного сгенерированного контента.
Входящая в холдинг Alphabet компания Jigsaw в прошлом году представила бесплатный сервис Assembler, предназначенный для определения подлинности фотографий и распознавания следов редактирования на них. Assembler, по замыслу создателей, в первую очередь направлен на помощь журналистам новостных агентств, чтобы им было легче выявлять подделки из соцсетей.
В мае 2021 года Sony подала патентную заявку на разработку ИИ для распознавания дипфейков.
В сентябре 2020 года Microsoft запустила инструмент для анализа видео и получения оценки манипуляций Microsoft Video Authenticator.
Facebook с 2019 года проводит конкурс Deepfake Detection Challenge (DFDC). Социальная сеть ставит участникам задачу разработать наиболее эффективный способ отличать видео и фото с подставными лицами. В 2020 году на DFDC было привлечено более 3,5 тыс. актеров для создания десятков тысяч роликов. Алгоритмы конкурсантов показали точность обнаружения дипфейков в 65 процентов. Одним из призеров стала компания из России NtechLab.
Управление перспективных исследовательских проектов Минобороны США (DARPA) реализует ряд программ по выявлению синтезированного видео. Ведомство ведет сразу несколько проектов. Ключевыми являются Media Forensics (MediFor) и Semantic Forensics (SemaFor). Ранее RSpectr подробно писал об этом.
* В рамках реализации федерального проекта «Цифровые технологии» национальной программы «Цифровая экономика».
**Эвристический алгоритм (эвристика) – алгоритм решения задачи, включающий практический метод.
Изображение: Freepik.com, RSpectr
ЕЩЕ ПО ТЕМЕ:
Дипфейком не вышел
Программы по выявлению фальшивых лиц спасут репутацию известных людей