Детки в ИИ-клетке
Что нужно знать родителям о влиянии искусственного интеллекта на детей
Недавно OpenAI и Common Sense Media объявили о создании партнерства для разработки рекомендаций по безопасному применению детьми технологий искусственного интеллекта (ИИ). О том, какие риски для несовершеннолетних несет ИИ, какая законодательная база требуется для его безопасного использования и можно ли применять нейросети для защиты детей в Сети – в материале RSpectr.
УСИЛЕНИЕ РИСКОВ
По данным Научно-технического центра ФГУП «ГРЧЦ» (НТЦ), во многом угрозы и риски, связанные с развитием и массовым внедрением технологий ИИ, для взрослых и детей совпадают. «Однако для несовершеннолетних они усугубляются особенностями развития и восприятия окружающего мира. Дети не в полной мере осознают потенциальные риски, связанные с информационной безопасностью, включая использование ИИ, и могут совершать небезопасные действия», – отметила в беседе с RSpectr советник генерального директора по научно-техническому развитию ФГУП «ГРЧЦ» Евгения Рыжова. Она обратила внимание, что
НАИБОЛЬШУЮ ОПАСНОСТЬ ПРЕДСТАВЛЯЮТ РИСКИ, СВЯЗАННЫЕ С ИСПОЛЬЗОВАНИЕМ ДЕТЬМИ ГЕНЕРАТИВНЫХ МОДЕЛЕЙ ИИ
Они не обеспечивают полноту и достоверность предоставляемой информации и могут способствовать приобретению детьми ложных или частично ложных сведений.
В первую очередь, это зависит от тех данных, которые в них вложили на этапе обучения. Важно, на каких источниках информации обучается ИИ, какие и чьи смыслы и ценности заложены в них. Содержание генеративных ИИ-моделей напрямую зависит от взглядов и установок программистов, которые их создают или их спонсоров.
«Мировоззрение алгоритмов может совпадать с мировоззрением людей, которые не разделяют наших традиционных ценностей. Кроме того, генеративные ИИ-модели обучаются и на вымышленных историях, мифах, легендах и сообщениях в социальных сетях. В итоге ответы нейросетей могут транслировать информацию, не соответствующую нашему культурному коду, вводящую в заблуждение и несущую неправильное понимание мира», – сообщила Евгения Рыжова.
Нередки случаи так называемого «галлюцинирования» генеративных нейронных сетей, например, чат-ботов, когда ложные сведения подаются нейросетью под видом достоверных фактов, напомнила эксперт.
Также в связи с особенностями обучения моделей и используемых при этом наборов данных генеративные модели могут транслировать неверные ценности.
Евгения Рыжова, ФГУП «ГРЧЦ»:
– Алгоритмическая предвзятость, заложенная в системах ИИ на этапе обучения, может усилить у ребенка стереотипы или повлечь неверные представления об окружающем мире.
К примеру, подчеркивая решающий вклад в победу над фашизмом, генеративные сети на первое место выдвигают западные страны и их лидеров или могут подтвердить нормальность однополых отношений.
К этому же риску присоединяется попадание в «информационный пузырь».
Алексей Парфентьев, «СёрчИнформ»:
– Любой ИИ создает «информационный пузырь», предлагая пользователю только те темы, которые ему предположительно нравятся. Попав в этот пузырь, ребенок может составить неверное представление об окружающем мире, а нейросеть будет ему в этом помогать.
На этом фоне возрастает вероятность утечки личной информации, так как дети обычно наивны и не осведомлены о том, как их персональные данные могут использоваться.
Дети могут отдавать слишком много личных данных ИИ, например, при использовании чат-ботов, прокомментировал RSpectr руководитель отдела аналитики «СёрчИнформ» Алексей Парфентьев. Однако
НИКТО НЕ МОЖЕТ ГАРАНТИРОВАТЬ, ЧТО ИИ НЕ БУДЕТ ПРИМЕНЯТЬ ЭТИ ЛИЧНЫЕ ДАННЫЕ ПРИ ОТВЕТАХ НА ЗАПРОСЫ ДРУГИХ ПОЛЬЗОВАТЕЛЕЙ
«Нельзя исключать возможность привыкания детей к использованию ИИ-технологий в развлекательных или образовательных целях и возникновения цифровой зависимости, что может привести к чрезмерному отвлечению от реальной жизни и проблемам с социализацией», – обратила внимание Евгения Рыжова.
Она сообщила, что существует ряд угроз, не связанных напрямую с использованием ИИ детьми. Так, алгоритмы нейросети, применяемые в различных приложениях и сервисах, обучаются в том числе на основе поведенческих паттернов детей, что поднимает вопросы приватности и этичности.
Кроме того, злоумышленники способны использовать ИИ-инструменты для кибербуллинга, отслеживания или манипуляций детьми. Поддельные цифровые профили могут распространять дипфейки, вредоносный или деструктивный контент, к которому наиболее восприимчивы дети, а алгоритмы мониторинга онлайн-активности детей могут использоваться для последующего шантажа, клеветы или угроз на основе собранной информации, подчеркнула эксперт НТЦ.
ЗАРУБЕЖНАЯ ПРАКТИКА
По мнению генерального директора iTPROTECT Андрея Мишукова, ИИ – одна из самых быстроразвивающихся технологий, за которой пока законодательство не поспевает.
Андрей Мишуков, iTPROTECT:
– Пока проектов, связанных с фундаментальными разработками в области ИИ, в Европе очень мало. Поэтому лучшая практика – это отсутствие регуляторных требований, которые эту отрасль попросту могут «убить», и наша страна потеряет конкурентное преимущество.
В марте 2022 года Всемирный экономический форум (ВЭФ) выпустил доклад на тему «Искусственный интеллект для детей»,
В КОТОРОМ БЫЛ ОПИСАН ИНСТРУМЕНТАРИЙ ДЛЯ ОТВЕТСТВЕННОЙ РАЗРАБОТКИ, ИСПОЛЬЗОВАНИЯ И ПОТРЕБЛЕНИЯ ДОВЕРЕННОГО ИИ
В этом документе предлагается ввести систему маркировки для устройств и приложений ИИ с целью краткого информирования непосредственных потребителей (детей и молодежи), а также родителей и опекунов о том, как работает конкретная система с ИИ и какие варианты ее использования доступны пользователям.
Маркировка должна содержать следующие данные: рекомендуемый возраст пользователя, возможность применения людьми с ограниченными возможностями, наличие сенсоров и возможность их отключения (например, камеры или микрофона), возможность социального взаимодействия и социализации (с возможностью отключения), способы взаимодействия ИИ с пользователем (распознавание лица, голоса, эмоций), использование персональных данных (взаимодействие системы с данными и соблюдение GDPR).
Евгения Рыжова, ФГУП «ГРЧЦ»:
– На наш взгляд, заслуживает внимания идея маркировки устройств и приложений ИИ. Также НТЦ поддерживает соблюдение принципов создания доверенных и этичных моделей.
ЦИФРОВАЯ ГРАМОТНОСТЬ
Обеспечивать защиту юных поколений в Сети, учитывая развитие технологий, меняющийся ландшафт угроз, необходимо совместными усилиями бизнеса, регуляторов и компаний в сфере информационной безопасности (ИБ), прокомментировал RSpectr консультант по кибербезопасности компании F.A.C.C.T. Сергей Золотухин.
Отдельные усилия, по его мнению, должны быть направлены на обучение правилам цифровой грамотности именно родителей, которые не только распоряжаются до достижения определенного возраста документами детей, но и предоставляют им доступ к различным сервисам.
Среди родителей растет запрос на образовательные ресурсы в области информационной безопасности, рассказал RSpectr руководитель направления «Лаборатории Касперского» по детской онлайн-безопасности Андрей Сиденко.
Чтобы сделать пребывание детей в интернете более безопасным, он рекомендует родителям
СЛЕДИТЬ ЗА ИНФОРМАЦИЕЙ ОБ АКТУАЛЬНЫХ УГРОЗАХ И РАЗГОВАРИВАТЬ С ДЕТЬМИ О РИСКАХ, С КОТОРЫМИ ОНИ МОГУТ СТОЛКНУТЬСЯ В СЕТИ
«Нужно рассказывать детям о ключевых понятиях в области кибербезопасности, учить их, как противостоять онлайн-угрозам и распознавать уловки мошенников. Также установить надежное защитное решение на все устройства, которыми пользуется ребенок», – посоветовал Андрей Сиденко.
ПАЛКА О ДВУХ КОНЦАХ
Но искусственный интеллект – пример инструмента, который может быть использован как для нападения, так и для безопасности, в том числе для защиты детей в Сети.
«Уже сейчас алгоритмы машинного обучения используются для автоматической фильтрации вредоносного контента, оскорбительных сообщений и материалов, не соответствующих возрастным ограничениям, определения и блокировки нежелательной или вредоносной рекламы или рекомендаций», – пояснила Евгения Рыжова.
По словам Андрея Мишукова,
В ОДНОЙ ИЗ ПОПУЛЯРНЫХ СОЦСЕТЕЙ ИИ УЖЕ ИСПОЛЬЗУЕТСЯ ДЛЯ ВЫЯВЛЕНИЯ И ИДЕНТИФИКАЦИИ СООБЩЕНИЙ, СВЯЗАННЫХ С БУЛЛИНГОМ
и другим деструктивным контентом, в том числе направленным в адрес детей. В этом плане нейросеть уже стала инструментом безопасности, и это направление получит дальнейшее развитие.
Технологии ИИ предоставляют возможность автоматизации множества процессов, предлагают подсказки и направления для действий, прокомментировал RSpectr руководитель группы анализа трафика Positive Technologies Николай Лыфенко.
Николай Лыфенко, Positive Technologies:
– Однако, несмотря на все свои преимущества и впечатляющие возможности, на текущий момент они все еще не могут полностью заменить человека, особенно когда речь идет о вопросах безопасности.
Он уверен, что для эффективного решения таких задач требуется человеческий опыт, проверка фактов и понимание контекста ситуации, а ИИ пока что не способен полностью заменить эти важные аспекты.
Екатерина Лаштун