Искусственный интеллект и модерация
ИТ / Статьи
информбезопасность технологии
5.5.2023

Нейросеть: от помощника до модератора

Как искусственному интеллекту выйти из черного ящика

С распространением ChatGPT 90% информации в Сети будет сгенерировано при значительном участии искусственного интеллекта (ИИ). Регулирование в большинстве стран не успевает за скоростью развития технологий: модерация пока непрозрачна и происходит с задержкой, а автоматизированным системам фактчекинга в интернет-среде предрекают массовое внедрение лишь через три-пять лет. Собеседники RSpectr уверены, что России нужно оперативно создать национальную систему контроля и мониторинга интернет-контента. Национальный файрвол должен объединить разрозненные технологии с помощью ИИ. Наличие отечественных решений в этой сфере эксперты называют вопросом национальной безопасности.

УГРОЗЫ И НЕПРОЗРАЧНОСТЬ

Обыватели уже используют ИИ, встроенный в поисковые системы или мобильные приложения. Вскоре технология будет доступна широчайшему кругу людей, говорится в исследовании «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия». Отчет подготовили эксперты Роскомнадзора и Главного радиочастотного центра (ФГУП «ГРЧЦ») совместно с аналитическим центром MINDSMITH и компанией «Ростелеком».

Использование алгоритмов ИИ может служить как щитом, так и мечом, напомнила советник гендиректора по научно-техническому развитию ФГУП «ГРЧЦ» Евгения Рыжова. Она пояснила, что, с одной стороны, мы видим ИИ как надежного помощника внутри научно-технических процессов. С другой, мы не можем закрывать глаза на деструктивные сценарии его использования злоумышленниками, от мошеннических схем до социального манипулирования через информационное воздействие.

Ситуацию осложняет непонимание вектора развития технологии обычными пользователями, поскольку часто разработки инструментов ИИ засекречены. В исследовании говорится, что

значительное число решений ИИ представляет собой черный ящик

Управляющий партнер MINDSMITH Руслан Юсуфов пояснил RSpectr, что сегодня большая часть моделей ИИ базируются на работе так называемых глубоких нейронных сетей. Количество внутренних слоев может составлять несколько десятков, а параметров, с которыми работает нейросеть, может быть даже несколько сотен миллиардов.

Руслан Юсуфов, MINDSMITH:

– Проблема черного ящика – это невозможность проанализировать и понять, как конкретно ИИ принимает решение. С учетом сложности архитектуры проследить процесс преобразования данных внутри нейросети – практически невыполнимая задача.

Поддельные видео-, фото- и аудиофайлы сложно распознать невооруженным взглядом. Основатель коммуникационного агентства Breaking Trends Юлия Загитова рассказала в разговоре с RSpectr, что есть специалисты, способные заметить артефакты на изображении, созданном нейросетью, но успех в таком распознавании составляет 37%.

Юлия Загитова, Breaking Trends:

– Что касается музыки или текста, то здесь ИИ работает настолько чисто, что сложно отличить его работу от труда человека.

Реальность усугубляет все увеличивающийся объем информации, которая публикуется в интернете. Так, только твитов ежедневно размещается до 500 млн.

К 2026 году около 90% контента в интернете будет сгенерировано при значительном участии ИИ, говорится в материалах Интерпола.

Генеративный ChatGPT даст пользователям дополнительные инструменты для производства контента, часть его, конечно, будет незаконной.

Эксперты констатируют, что

у ChatGPT нет моральных установок, и ИИ не осознает возможные эффекты от распространения

Например, в статье для Nature ученые рассказали, что алгоритм для генерации новых лекарств смог спроектировать 40 тыс. боевых химических веществ за шесть часов работы на довольно скромном оборудовании.

Зампред Комитета Госдумы РФ по информполитике Антон Горелкин отмечает в своем телеграм-канале, что пока ИИ – новая игрушка для человеческой цивилизации. Кейсы GigaChat, Pi подходят, по его мнению, не для решения универсальных задач, сфера их применения узка – для непринужденных бесед. Депутат напомнил, что в мае «Лаборатория Касперского» выяснила, что пока ChatGPT справляется с выявлением фишинговых ссылок недостаточно хорошо и иногда не может объяснить, почему тот или иной ресурс вредоносный.

ЭВОЛЮЦИЯ МОДЕРАЦИИ

Каждый виток развития цифровых технологий всегда сопряжен с новыми вызовами, отметил врио гендиректора ФГУП «ГРЧЦ» Руслан Нестеренко. По его словам, ключевую роль в их успешном преодолении играет время реакции.

На данный момент технические решения по мониторингу не достигли нужного уровня: модерация в Сети непрозрачна, а также имеет задержку по отношению к публикации контента. Эксперты отмечают, что

стримы и прямые эфиры, включая рекламу в них, пока что приходится модерировать вручную

Модели, работающие с видеопотоком в реальном времени, – самые требовательные к вычислительным мощностям, это ограничивает их применение компаниями, рассказал Руслан Юсуфов. Он указал и на другой аспект – базы данных для обучения нейросетей, на создание которых также требуются ресурсы и время.

Руслан Юсуфов, MINDSMITH:

– Работа модели с контентом социальных групп, не представленных в наборе данных на этапе обучения, может привести к ошибочной классификации и, как результат, дискриминации части пользователей и неэффективности самой модели.

Сегодня существенная часть нежелательных сообщений и постов может быть обнаружена только благодаря пользователям, в том числе потому, что нейросети не понимают весь сленг.

Пока человек, в отличие от ИИ, способен глубже понимать контекст и эмоции, чувствует нарушения логики, а также имеет внутренние ценностные установки «как должно быть», отметила Юлия Загитова.

Модели на основе ИИ редко способны понять, является утверждение ложью или шуткой, говорит Руслан Юсуфов.

Соцсети вынуждены прибегать к услугам платных модераторов или добровольцев. Так, Facebook* оплачивает услуги порядка 30 тыс. модераторов, а Twitch отдает мониторинг в руки самих создателей контента, но рекомендует, чтобы на 200 пользователей был хотя бы один контролер.

Со временем модераторы контента станут операторами ИИ-систем. Платформы сосредоточатся на создании отдельных экспертных групп, ответственных, например, за отслеживание изменений в жаргоне, сленге и способов коммуникаций злоумышленников.

Роль человека в мониторинге Сети сместится в сторону проверки и совершенствования таких систем, поддержки коммуникации между платформой и пользователями

Руслан Юсуфов, MINDSMITH:

– Сегодня исследователи все чаще думают о создании систем в векторе концепции объяснимого ИИ (Explainable artificial intelligence, XAI), обеспечивающего прозрачность обоснования своих действий, например, через дополнительную визуализацию работы внутренних слоев.

ФАКТЧЕКИНГ В РЕАЛЬНОМ ВРЕМЕНИ

В России более 274 тыс. блогеров с аудиторией от 100 тыс. человек. Также существует около 60 тыс. зарегистрированных СМИ. Не все из них проверяют информацию, которую распространяют.

Так, с 2020-го по середину мая 2021 года, по данным Российской академии народного хозяйства и государственной службы (РАНХиГС), было зафиксировано более 6 млн постов и репостов с ложными фактами о пандемии коронавируса.

Гендиректор компании INPRO Виталий Арбузов в беседе с RSpectr рассказал, что есть ряд успешных примеров внедрения автоматизированных систем фактчекинга в интернет-среду, это проекты Google Fact Check, Twitter’s Birdwatch.

На сегодня ни один из глобальных бигтехов не может похвастаться полностью автоматизированной системой фактчекинга ввиду сложности и многокомпонентности процесса, отметил в беседе с RSpectr декан факультета «Цифровая экономика и массовые коммуникации» МТУСИ Сергей Гатауллин.

Платформы только начали присматриваться к системам фактчекинга, рассказали RSpectr в пресс-службе «Ростелекома». Там объяснили, что сложность их реализации как машиной, так и человеком связана с алгоритмом выявления фактов из текстов, картинок, видео, аудио, а также моделями скоринга, в частности, обучения понятию достоверной и сомнительной информации. Эти определения максимально размыты.

Количество исследований и разработок решений в этой сфере растет, но полная автоматизация всего процесса проверки фактов по-прежнему скептически воспринимается как фактчекерами, так и исследователями, отметил Руслан Юсуфов. Причина в том, что некоторые части процесса проверки фактов до сих пор требуют человеческого мнения или действия. Например, оценку достоверности источников доказательств невозможно автоматизировать с необходимой точностью.

Системы для фактчекинга находятся на раннем этапе развития и будут массово внедрены только через три-пять лет, утверждают эксперты. Это приведет к тому, что

каждая новость будет размечена специальными тегами на крупных платформах

В будущем фактчекинг будет интегрирован в соцсети и станет возможен в реальном времени. Виталий Арбузов отметил, что модерация в таком режиме требует значительных мощностей,так как процесс проверки и фильтрации огромного объема информации требует множество вычислительных ресурсов.

Виталий Арбузов, INPRO:

– Для этих целей часто используются выделенные серверы с графическими процессорами (GPU), которые могут обрабатывать большое количество данных параллельно.

В «Ростелекоме» отметили, что для публикаций в соцсетях не критична задержка на пару минут для проверки, поэтому модерация не потребует кардинального увеличения мощности. Для прямых эфиров и стримов оно потребуется, но такого типа трансляций в общем объеме не так много.

С ОРИЕНТАЦИЕЙ НА ОТЕЧЕСТВЕННОЕ

В интересах государственной безопасности более уместно говорить не об автоматизированном фактчекинге, а о системе контроля и мониторинга не только интернет-контента, но и распространения и использования онлайн-технологий с пониманием потенциальных угроз, как неизбежном развитии регуляторных функций в области ИТ, сказал Сергей Гатауллин.

Он подчеркнул, что такую систему в России можно и нужно оперативно создать, объединив разрозненные технологии в национальный файрвол. При этом стоит использовать опыт дружественных зарубежных стран, в частности Китая, добившегося значительных успехов в борьбе с негативным проникновением западных технологий.

Сергей Гатауллин, МТУСИ:

– Национальный файрвол предполагает фильтрацию всего сетевого трафика, контроль используемых в Сети приложений и IP-адресов, аутентификацию пользователей. Речь должна идти об AI Firewall – файрволе нового поколения на базе технологий ИИ.

На данный момент нет единых регламентов по регулированию работы нейросетей, и каждая страна будет разрабатывать свои требования, отметил в разговоре с RSpectr руководитель отдела предпродажной подготовки RuSIEM Дмитрий Чеботарёв. По его словам, вводить свои нормативы по работе ИИ с соцсетями будут даже отдельные корпорации.

Степень применения решений в области ИИ пока довольно низка, и это связано с необходимостью перестройки бизнес-процессов внутри компаний, отметил для RSpectr декан факультета искусственного интеллекта университета «Синергия» Эдуард Жданов.

Высока вероятность, что корпорации будут некорректно размечать новости, чтобы сформировать выгодную оптику в отношении инфоповодов, говорится в исследовании ГРЧЦ. Таким образом, у государства нет другого выбора, кроме как изучать ИИ, обучать своих граждан и готовиться к грядущим изменениям в информационных войнах, киберпреступлениях, практиках недобросовестного использования персональных данных и других векторах рисков.

В первую очередь регулятор должен разработать процедуры тестирования и оценки моделей ИИ

Чтобы в том числе решить упомянутую проблему черного ящика. Его наличие представляет угрозу в случае внедрения зарубежных решений.

Внедрение отечественных моделей, а также использование собственных датасетов – вопрос национальной безопасности. Даже при применении отечественного ПО, если оно базируется на зарубежных датасетах и нейросетях, существуют риски: ИИ в ядре российской системы можно натренировать для разных целей, а датасет можно намеренно исказить.

Виталий Арбузов напомнил, что в России разработкой продуктов на основе ИИ сегодня занимается ряд компаний – «Яндекс», Сбер, VisionLabs. По прогнозам эксперта,

в 2023 году российский рынок ИИ преодолеет отметку в 500 млн долларов

Ряд отечественных технологий находится на мировом уровне, например, распознавания эмоций по тональности текста и анализу голоса, мониторинга и модерации контента, отметил Руслан Юсуфов. Единственным их ограничением является скорость обработки массивов данных.

В России достаточна экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами, говорится в исследовании.

В РФ есть команды международного уровня по компьютерному зрению и распознаванию лиц, обработке естественного языка, констатировали в «Ростелекоме». Проблемой в сегменте там назвали отсутствие отечественной аппаратной базы, вычислений на графических процессорах. В этой сфере практически монополист – американская компания Nvidia.

Есть области, в которых мы немного отстаем от мировых лидеров, например, генеративные алгоритмы, но при условии наличия вычислительных мощностей разрыв можно будет сократить в будущем, считает Руслан Юсуфов.

* Признан в РФ экстремистским и запрещен.

Наталия Черкасова

Изображение: RSpectr, Adobe Stock

Еще по теме

Почему будущих специалистов по информбезопасности разбирают еще со школы

Новые схемы интернет-мошенников и как им противостоять

Почему буксует импортозамещение электронных компонентов

Почему рынок коммерческих дата-центров нуждается в регулировании

Что ждет начинающего тестировщика в 2024 году

Как найти перспективные зарубежные рынки для российских решений

Какие угрозы несет интернет тел человечеству

Успеют ли банки заменить импортный софт и оборудование до 2025 года

Зачем компании вкладывают деньги в ИТ-состязания?

Импортозамещение и внутренняя разработка ПО в страховании

Почему рынок информационных технологий РФ возвращается к классической дистрибуции

Что сделано и не сделано в цифровизации России за 2023 год

Как заботу о вычислениях переложить на вендоров и почему не все к этому готовы

Когда российский бизнес начнет замещать импортное ИТ-оборудование

Чего добились за два года активного импортозамещения ПО