Создание контента
Медиа / Статьи
медиа регулирование
4.3.2024

Камера! Нейросеть! Снято!

Особенности регулирования использования искусственного интеллекта в создании медиаконтента

Технологии искусственного интеллекта (ИИ) активно применяются при создании медиаконтента: современные «цифровые двойники» практически неотличимы от оригинала. Появление дипфейков, синтезированного голоса, цифровых образов артистов требует особенного подхода к регулированию, поскольку классический принцип дихотомии в отношении авторского права здесь не работает. Каковы предпосылки создания законодательной базы в области медиаконтента с использованием ИИ – в материале RSpectr.

ДИПФЕЙКИ ДЛЯ МЕДИА

Использование дипфейков и цифровых образов известных артистов и актеров – это новый вызов для медиаиндустрии, заявил генеральный директор Национальной федерации музыкальной индустрии (НФМИ) Никита Данилов на форуме CSTB.PRO.MEDIA.

Никита Данилов, НФМИ:

– Сейчас технологии ИИ позволяют оцифровать образ любого артиста. «Цифровые двойники» практически неотличимы от оригинального изображения и голоса.

По его словам, использование дипфейков и синтезированного голоса может привести к нарушению прав, риску распространения ложной информации и создания фальшивых новостей.

При помощи дипфейков уже активно снимаются рекламные ролики, сериалы, не оставили эту технологию без внимания и мошенники, отметил член Комитета Госдумы по информационной политике, ИТ и связи Антон Немкин в беседе с RSpectr. Дипфейки применяются для создания политического контента, при помощи которого может искусственно провоцироваться социальное напряжение.

«Число мошеннических схем будет только расти, поэтому необходимо включение проблем любого медиаконтента, созданного при помощи ИИ, в правовое поле», – уверен Антон Немкин.

Известные личности инвестируют в создание, развитие и продвижение своего образа для творческой деятельности, напомнил Никита Данилов. В настоящее время правовой охране подлежат только фотографические изображения людей. Эксперт считает, что

ЦЕЛЕСООБРАЗНА РАЗРАБОТКА ПРАВОВЫХ МЕХАНИЗМОВ ОХРАНЫ ЦИФРОВЫХ ОБРАЗОВ ГОЛОСОВ ЛЮДЕЙ, ПО АНАЛОГИИ С ОХРАНОЙ ОБЪЕКТОВ АВТОРСКИХ И СМЕЖНЫХ ПРАВ

«Мы считаем, что права на синтезированный голос, цифровые образы артистов и дипфейки должны быть защищены», – подчеркнул он.Следующая правовая проблема, по словам юриста, – создание контента с помощью ИИ.

Никита Данилов, НФМИ:

 В этой части и ГК, и международное регулирование говорят о том, что авторское право охраняет то, что собирается непосредственно человеком, то есть творцом. Необходим творческий вклад человека в создание объектов авторских и смежных прав, а все, что создается с помощью ИИ, не подлежит охране.

Обучение нейронных сетей с помощью объектов авторских прав, которые существуют на рынке (фильмы, книги, музыка), требует согласия правообладателя, сообщил Никита Данилов.

Однако открытым остается вопрос, как правообладатель будет контролировать использование своих объектов в нейросистемах. Ни один надзорный орган не сможет разобраться, по каким именно алгоритмам работают такие системы и какие объекты прав используются для обучения нейросетей. «Наши рекомендации разработчикам – публиковать списки используемых объектов для обучения систем ИИ», – посоветовал юрист.

ЗАГРАНИЦА НАМ ПОМОЖЕТ

Пока отрасль урегулирована косвенно и нет единого решения в международной практике о том, как должны оцениваться созданные нейросетями результаты интеллектуальной деятельности (РИД), подчеркнул в беседе с RSpectr чоен Ассоциации юристов России Сергей Хаустов. Он добавил, что РИД должны или принадлежать создателю алгоритма ИИ или непосредственно автору запроса, или быть в соавторстве у людей, создавших произведения, на которых обучали искусственный интеллект.

Антон Немкин считает, что

ОДИН ИЗ ВАРИАНТОВ РАБОТЫ С МЕДИАКОНТЕНТОМ, СОЗДАННЫМ ПРИ ПОМОЩИ ИИ, – ЭТО ЕГО МАРКИРОВКА

Такой подход сегодня уже активно используется в зарубежных странах. Например, Adobe, Google, Microsoft, OpenAI и TikTok разработали проект соглашения для объединения усилий по борьбе с дезинформацией, которая создается с помощью нейросетей. Они хотят создать технологические инструменты для обнаружения, маркировки и разоблачения дипфейков с видео- и аудиоконтентом, сфабрикованных с помощью ИИ и касающихся общественных и политических деятелей. Предполагается разработать также «идентификаторы на основе открытых стандартов», водяные знаки.

Антон Немкин, Госдума РФ:

– Это наиболее компромиссный путь, который мы рекомендуем отечественным социальным сетям и другим площадкам. Учитывая тот факт, что наша страна выбирает стратегию «не остановить развитие ИИ, а занять лидирующие позиции в мире», регулирование в этом вопросе должно вводиться обязательно, но делать это нужно обдуманно и аккуратно.

В прошлом году Евросоюз предложил возможные тезисы для регулирования применения ИИ – EU AI Act. В 2024 году должно пройти обсуждение и возможное принятие акта, сообщила RSpectr руководитель отдела компьютерной лингвистики «Наносемантика» Анна Власова.

Анна Власова, «Наносемантика»:

– Основная цель европейского регулирования – выработать систему классификации продуктов с использованием решений на основе искусственного интеллекта по степени риска для человека и предложить четкие критерии и правила, которыми должны руководствоваться вендоры продуктов с использованием технологии ИИ.

По ее мнению, не обязательно ждать формирования международных норм, можно и нужно параллельно разрабатывать свои.

ВВЕРХ ТОРМАШКАМИ

Прежде всего, необходимо на законодательном уровне определить понятие дипфейков и другого контента, созданного при помощи нейросетей, а также возможные концепции регулирования таких продуктов, считает Антон Немкин. Разработка соответствующей нормативной базы уже ведется, и законопроект станет отправной точкой в регулировании технологии дипфейков, но не исключено, что могут потребоваться дополнительные инициативы в этом направлении. К примеру, придется ужесточать и административное законодательство для тех, кто использует подобные технологии в мошеннических схемах.

Также при разработке регулирования в сфере ИИ необходимо обратить особое внимание на важность источников данных для обучения моделей искусственного интеллекта, уверен депутат. Чтобы не создавать рисков для национального суверенитета и развития собственных технологических решений,

РОССИЙСКИМ КОМПАНИЯМ – РАЗРАБОТЧИКАМ ИИ-РЕШЕНИЙ И УЧЕНЫМ ВАЖНО ИСПОЛЬЗОВАТЬ В РАБОТЕ ОТЕЧЕСТВЕННЫЕ ДАННЫЕ

Текущий феномен нейросетей не укладывается в парадигму, в которой привыкли работать юристы, сообщила руководитель практики интеллектуальной собственности, партнер АБ «Бартолиус» Татьяна Стрижова. По ее словам, авторское право изначально было основано на принципе дихотомии: идеи и воплощения.

Татьяна Стрижова, АБ «Бартолиус»:

– Идея не подлежит защите, следует защищать результат. ИИ переворачивает классическую дихотомию с ног на голову. Несмотря на то что нейросеть использует медиаконтент для обучения, она не копирует его, а им вдохновляется.

Юрист уверена, что идея возложить на разработчиков отслеживание использования объектов авторского и смежного права утопична.

Ее коллега думает иначе:

Сергей Хаустов, Ассоциация юристов России:

 Сфера ИИ в России будет жестко урегулирована на уровне именно владельцев алгоритмов. Потому, что ключевая история – на чем именно произведено обучение алгоритма нейросетей.

Не исключено, что некоторые развитые страны пойдут по пути закручивания гаек и ограничения возможностей корпораций в попытке сдержать их растущее влияние, предположил в разговоре с RSpectr Руслан Юсуфов, управляющий партнер MINDSMITH.

Руслан Юсуфов, MINDSMITH:

 В первую очередь нужно думать о последствиях внедрения технологий, регулирование должно быть направлено на их смягчение. Необходимо обучать людей, повышать уровень когнитивной безопасности, чтобы оградить людей от дипфейков не запретом, а знанием.

Екатерина Лаштун

Изображение: RSpectr, Freepik

Еще по теме

Заместил ли контент российских видеосервисов импортную продукцию

Замедление YouTube, внутренние риски и госбюджет на ИБ

Цифровые угрозы становятся изощреннее. Как этому противостоять?

Мировой опыт защиты детей в Сети и что могут сделать российские интернет-площадки

Нужно ли считать ссылки на запрещенные соцсети инструментом продвижения опасного контента

Как развиваются «родные» медиаплощадки и что хотят на них видеть соотечественники

Как противостоять фейкам и почему будущее за доверенными источниками

Для чего необходимо развивать блог компании и как это делать эффективно

ИТ-компании и общественные организации занялись цифровым просвещением молодежи

Американский видеохостинг заподозрили в нелегальном отслеживании детей и навязывании персонализированной рекламы

Как обеспечить безопасность своего ребенка в интернете: новые угрозы и роль искусственного интеллекта

Почему бесполезны инструменты распознавания контента, созданного искусственным интеллектом

Чем грозит глобальное распространение рекламы, созданной искусственным интеллектом

Каковы новые подходы к формированию информационного поля в России

Каковы новые тренды в производстве сериалов и кино