ИТ / Статьи
регуляторика технологии
7.4.2023

Дрессировка нейросети

Как распознавать дипфейки и снизить риски злоупотребления

Инструменты для генерации фото и видео давно доступны в Сети. Подделки с участием публичных личностей становятся вирусными, и большое число пользователей начинает верить фейкам. По этой причине популярный разработчик нейросетей Midjourney в марте был вынужден закрыть доступ к бесплатному пробному использованию генератора изображений. Собеседники RSpectr считают, что нужны регуляторные меры на глобальном уровне, ограничивающие инфраструктурные возможности обучения искусственного интеллекта (ИИ).

ЗАТОРМОЗИТ, НО НЕ ОСТАНОВИТ ПРОЦЕСС

Ужесточение правил компанией Midjourney может снизить число фейковых изображений в медиапространстве, но не искоренит их полностью, прокомментировал RSpectr начальник отдела информационной безопасности «СёрчИнформ» Алексей Дрозд. По его словам,

задача разработчиков – отпугнуть мошенников, но не добросовестных пользователей

Плата за услуги системы в размере 20 долларов не станет непреодолимым препятствием для злоумышленников, но все же поможет уменьшить число случайных фейков, отметил в беседе с RSpectr руководитель исследовательских проектов VisionLabs Александр Паркин.

При этом дисклеймер от Midjourney, связанный с условиями использования, скорее защищает авторов сервиса от репутационных рисков, подчеркнул эксперт.

Александр Паркин, VisionLabs:

– Не стоит забывать, что существуют другие системы для генерации фото и видео. Например, аналогичный сервис Stable Diffusion сейчас немного уступает по качеству, но через какое-то время будет создавать контент уровня Midjourney.

Сегодня любой, у кого есть доступ к достаточно мощным видеокартам (GPU от NVidia) или открытым сервисам Google Colab, имеет возможность создать фейковые изображения и видео, подтвердил RSpectr директор по науке лаборатории ИИ Сбера Андрей Савченко.

Эксперт упомянул о другой инициативе по заморозке исследований генеративных моделей. В сообществе исследователей нейросетей призывают приостановить на полгода подготовку систем ИИ, более мощных, чем GPT-4.

Андрей Савченко считает, что подобные идеи, скорее всего, потерпят неудачу, поскольку технологическим корпорациям из США и Китая будет крайне сложно договориться.

Андрей Савченко, Сбер:

– Есть много положительных примеров генерации изображений, не нарушающих чьи-то авторские права. Поэтому каждая компания хочет за счет развития собственных технологий выиграть конкуренцию.

В гонку уже включились стартапы. Так, проект Tavus в марте 2023 года привлек более 6 млн долларов на развитие генеративного ИИ для создания персонализированных дипфейк-видео.

ПУБЛИКОВАТЬ С МАРКИРОВКОЙ

К концу года в РФ планируется представить законопроект о регулировании дипфейков – синтезированных с помощью ИИ изображений, сообщил RSpectr в марте зампред Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин. Депутат упоминал, что фейковый контент будет помечаться особым образом.

Эксперт по кибербезопасности «Вебмониторэкс» Екатерина Старостина рассказала RSpectr, что в новое законодательство в этой сфере войдут более строгие меры в отношении нарушения авторских прав. Также необходима кампания по информированию общественности о том, как идентифицировать сгенерированные изображения.

Закон о регулировании дипфейков уже действует в Китае, сообщил Алексей Дрозд.

Алексей Дрозд, «СёрчИнформ»:

– Документ запрещает использовать технологию в отрицательных целях – для ущемления прав личности, распространения ложных новостей. Если дипфейк не несет вреда, его можно опубликовать, но только с соответствующей маркировкой.

Технологии создания подобных изображений постоянно меняются, и законы не всегда могут быстро приспособиться к новым методам обмана, отметил в разговоре с RSpectr партнер университета «Синергия», эксперт в области проектирования IT-решений Никита Новиков.

Риски широкого применения дипфейков поможет снизить разработка регуляторных мер для социальных сетей с большой аудиторией, говорит Александр Паркин. По его словам,

обязательство отмечать сгенерированный контент даст пользователю возможность критически воспринимать увиденные изображения

Никита Новиков уточнил, что для эффективного обнаружения фейков можно использовать технологию reverse image search – метод поиска, где сравниваются цифровые отпечатки файлов. Они помогают определить, были ли использованы одни и те же элементы в нескольких изображениях.

Площадки для генерации и публикации контента также могут разработать функцию автоматического добавления водяных знаков на созданные нейросетью картинки, по которым пользователи поймут, что это дипфейк, добавил Алексей Дрозд.

Андрей Савченко считает, что сделать подобный инструмент для картинок технически несложно. К тому же каждой компании выгодно научиться таким образом фиксировать авторские права на сгенерированный контент.

Андрей Савченко, Сбер:

– Такой подход не будет панацеей, так как любая небольшая обработка фото, например, фильтрация в Photoshop, с высокой вероятностью затрет цифровые маркеры.

Алексей Дрозд предлагает возложить ответственность и на пользователей, которые должны маркировать изображения при публикации. В таком случае, говорит эксперт,

должны быть созданы механизмы по отбору фейковых и настоящих картинок

Также возможны автоматическая модерация контента соцсетью и ручная проверка по жалобам от пользователей, отметил Алексей Дрозд.

ТРЕНИРОВКА НЕЙРОСЕТЕЙ

Корпорации могли бы обучать ИИ обнаруживать фальшивые изображения и таким образом бороться с ними, высказал точку зрения Никита Новиков.

Чтобы нейросети могли лучше отличать реальные изображения от фейковых, их нужно обучать на большом количестве разнообразных данных, указал RSpectr юрист направления интеллектуальной собственности и коммерческих споров Юридической группы «Совет» Тимур Фатыхов. Он добавил, что

важно разрабатывать и применять методы определения дипфейков, которые смогут работать в режиме реального времени

Тимур Фатыхов, Юридическая группа «Совет»:

– Это могут быть анализаторы изображений, определяющие их цифровую подпись, метаданные и другую информацию, которая поможет идентифицировать фальшивку.

Вопрос обучения нейросетей на основе больших массивов данных должен регулироваться по аналогии с распространением технологий, несущих потенциальную угрозу человечеству, наряду с летальными видами вооружений, прокомментировал RSpectr декан факультета «Цифровая экономика и массовые коммуникации» МТУСИ Сергей Гатауллин. Он считает, что

использование ИИ-систем не по назначению или во вред людям выходит на первый план технологической повестки

Сергей Гатауллин, МТУСИ:

– Для их развития нужны вычислительные мощности крупных ИТ-компаний. Очевидно, что не обойтись без регуляторных мер на глобальном уровне, ограничивающих инфраструктурные возможности обучения нейросетей.

Необходимо инвестирование в научные исследования, которые помогут создать обзор экосистемы дипфейков и определить лучшие практики в их массовом распространении, отметил Никита Новиков.

Александр Паркин прогнозирует, что со временем практика перевода текста в изображения (text-to-image) может перейти из сегмента развлечений в практическую плоскость. По мере накопления данных в узких специальностях может произойти новый бум популярности технологии.

Александр Паркин, VisionLabs:

Text-to-image пригодится для генерации различных видов медицинских МРТ-снимков или изображений, где нужно определять необычные ситуации. Например, лежащих на улице людей, которым стало плохо.

Перспективны также проекты по созданию 3D-моделей человека по заданным изображениям, отметил Андрей Савченко. По его словам, российским инженерам для разработки реалистичного аватара уже достаточно одного снимка.

Наталия Черкасова

Изображение: RSpectr, Adobe Stock

Еще по теме

Почему будущих специалистов по информбезопасности разбирают еще со школы

Новые схемы интернет-мошенников и как им противостоять

Почему буксует импортозамещение электронных компонентов

Почему рынок коммерческих дата-центров нуждается в регулировании

Что ждет начинающего тестировщика в 2024 году

Как найти перспективные зарубежные рынки для российских решений

Какие угрозы несет интернет тел человечеству

Успеют ли банки заменить импортный софт и оборудование до 2025 года

Зачем компании вкладывают деньги в ИТ-состязания?

Импортозамещение и внутренняя разработка ПО в страховании

Почему рынок информационных технологий РФ возвращается к классической дистрибуции

Что сделано и не сделано в цифровизации России за 2023 год

Как заботу о вычислениях переложить на вендоров и почему не все к этому готовы

Когда российский бизнес начнет замещать импортное ИТ-оборудование

Чего добились за два года активного импортозамещения ПО