Медиа / Статьи
медиа регуляторика технологии
16.5.2023

Нешуточный контент

Как найти грань между безобидным использованием дипфейков и правонарушением

Среди ежедневно растущего объема информации в интернете порой становится сложно отличить шутку от правды. Одной из таких «шуток» являются дипфейки, которые неподготовленный человек вряд ли распознает. Эту технологию сейчас используют в разных целях, как позитивных, так и негативных. О том, где находится грань между простым использованием технологий создания контента и правонарушениями, с ними связанными, – в материале RSpectr.

ОБМАНЧИВЫЙ КОНТЕНТ

Одной из главных угроз в интернете является опасность быть обманутым. Злоумышленники пользуются этим и создают контент, который вводит пользователей в заблуждение. Один из инструментов – дипфейк – технология синтеза изображения, основанная на искусственном интеллекте (ИИ). Однако главная проблема не в появлении подобных инструментов, а в масштабе их распространения и снижении порога входа, считает начальник отдела развития стратегических направлений АНО «Диалог» Тимофей Ви.

Выступая на сессии Российского форума по управлению интернетом (RIGF-2023) «How deep is your fake: технология обмана в Сети», он отметил, что еще пять лет назад для создания дипфейка были необходимы очень серьезные знания и умения. Сейчас создать его может любой желающий нажатием нескольких кнопок в приложении. По мнению эксперта,

простота использования технологий обмана в Сети является одной из важнейших угроз в интернете

Профессор кафедры теории и истории международных отношений Санкт-Петербургского государственного университета Константин Панцерев указал, что создать действительно качественный дипфейк в домашних условиях крайне затруднительно и долго. По его словам, для этого нужно мощное и дорогое оборудование и ПО. В то же время генерация фейкового видео среднего качества действительно очень проста, подчеркнул эксперт.

ДОБРО ИЛИ ЗЛО

Аналитик Центра глобальной ИТ-кооперации Юрий Линдре, выступая на форуме, рассказал, что к концу 2020 года общее количество дипфейков, распространенных в Сети, достигло 1 млн единиц. По его словам,

количество дипфейков удваивается каждые полгода

Популярность этой технологии растет вместе с увеличением спроса на ИИ. Так, по словам директора по развитию Agenda Media Group Алексея Парфуна, объем мирового рынка нейросетей в мире в 2022 году достиг 450 млрд долларов.

Алексей Парфун считает, что использование технологии дипфейка и синтеза речи не несет в себе никаких угроз. Стоит отметить, что Agenda Media Group является создателем веб-сериала «ПМЖейсон», снятого с использованием технологии дипфейк. В комедийном проекте использованы образы знаменитых актеров – Джейсона Стэйтема, Марго Робби, Киану Ривза и Роберта Паттинсона.

По словам Алексея Парфуна, использование этой разработки позволяет снизить затраты на привлечение актеров на 30–90%. Эксперт отметил, что развитие технологии дает массу новых возможностей, например, можно «воскресить» знаменитость. Так, условно, дипфейк в виде космонавта Юрия Гагарина мог бы читать студентам и школьникам лекции о космонавтике, а актер Сергей Бодров снова сможет «сниматься» в фильмах.

Тимофей Ви полагает, что «возвращение ушедших» – это этическая проблема. По его словам, такие действия затормозят дальнейшее развитие различных отраслей, так как, например, «возродившийся» Сергей Бодров не даст возможности проявить себя новым актерам. По мнению эксперта,

решения этической проблемы с использованием нейросетей сейчас не существует

Алексей Парфун возразил ему, отметив, что Ассоциация Коммуникационных Агентств России (АКАР) уже формирует этическую хартию по контролю за продуктами, созданными искусственным интеллектом (ИИ). Эксперт уверен, что в перспективе трех-пяти лет создание дипфейков выйдет на уровень ChatGPT, когда пользователю нужно будет создать только текстовое описание задачи, а нейросеть сгенерирует нужный видеоролик.

ЭТИЧЕСКАЯ СТОРОНА МЕДАЛИ

Константин Панцерев считает, что тотальный запрет дипфейков не нужен, так как у них есть полезные области применения. Однако необходимо решить вопрос защиты россиян от распространения токсичного контента, созданного при помощи этой технологии, убежден эксперт.
По его мнению, пока единственный способ это сделать – развивать критическое мышление и перепроверять информацию на достоверность.

Тимофей Ви, АНО «Диалог»:

– Время, когда дипфейки были просто научным исследованием, прошло. Теперь эту технологию попробовали все желающие и используют для самых разных целей, как безобидных, так и злонамеренных. Вести борьбу с создателями этих изображений можно, однако это будет бессмысленная трата сил и ресурсов.

Эксперт полагает, что помочь может только просвещение людей об опасностях в интернете. По его мнению, россиянам нужно постоянно рассказывать и показывать, как работают различные небезопасные технологии, где их можно встретить и как распознать. Без этого другие виды борьбы с распространением такого контента будут неэффективными, говорит Тимофей Ви.

Также пользователь должен видеть, что материал создан с помощью ИИ, поэтому его необходимо маркировать,

уверен эксперт. Алексей Парфун согласен, что маркировка на данный момент – ключевой вектор для работы в этом направлении. По его мнению, один из вариантов – перенять опыт Китая, который в апреле вынес на рассмотрение два документа по регулированию ИИ.

Один из законопроектов КНР как раз подразумевает маркировку ИИ-контента, второй – вводит запрет на использование дипфейков в рекламе. Вопрос получения метки для сгенерированного нейросетью контента обсуждается и в США.

Алексей Парфун подчеркнул, что

на данный момент закон отстает от развития ИИ-технологий во всем мире

Юрий Линдре напомнил, что цифровые платформы получают прибыть от количества просмотров видео за счет рекламы. При этом введение любых ограничений потенциально снижает аудиторию, поэтому они постоянно ищут лазейки, чтобы не брать на себя обязательств по загрузке маркированного контента. Также платформы не хотят встраивать механизм по его фильтрации.

Эксперт отметил: для достижения наибольшего эффекта важно, чтобы сам создатель дипфейка помечал, что контент сгенерировала нейросеть. Также важно, чтобы после этого материал проверялся на наличие маркировки самой платформой.

Екатерина Шокурова

Изображение: RSpectr, Adobe Stock

Еще по теме

С какими угрозами может столкнуться человек в виртуальных мирах

Как искусственный интеллект сохраняет коллекцию записей ленинградского Дома Радио

Особенности регулирования использования искусственного интеллекта в создании медиаконтента

Заместил ли контент российских видеосервисов импортную продукцию

Замедление YouTube, внутренние риски и госбюджет на ИБ

Цифровые угрозы становятся изощреннее. Как этому противостоять?

Мировой опыт защиты детей в Сети и что могут сделать российские интернет-площадки

Нужно ли считать ссылки на запрещенные соцсети инструментом продвижения опасного контента

Как развиваются «родные» медиаплощадки и что хотят на них видеть соотечественники

Как противостоять фейкам и почему будущее за доверенными источниками

Для чего необходимо развивать блог компании и как это делать эффективно

ИТ-компании и общественные организации занялись цифровым просвещением молодежи

Американский видеохостинг заподозрили в нелегальном отслеживании детей и навязывании персонализированной рекламы

Как обеспечить безопасность своего ребенка в интернете: новые угрозы и роль искусственного интеллекта

Почему бесполезны инструменты распознавания контента, созданного искусственным интеллектом