Выйти из тени
Евросоюз потребовал у западных социальных сетей раскрыть механизмы работы рекомендательных алгоритмов
Европейская комиссия запросила у YouTube, Snapchat и TikTok подробную информацию о том, как работают их алгоритмы рекомендаций контента. Этот запрос сделан в рамках Закона о цифровых услугах (DSA) и направлен на то, чтобы понять, как эти платформы рекомендуют контент пользователям и какие меры они принимают для снижения рисков, связанных с распространением нелегального контента, такого как призывы к ненависти и продвижение запрещенных веществ.
ПОДОЗРИТЕЛЬНЫЕ РЕКОМЕНДАЦИИ
Особое внимание уделено влиянию алгоритмов на выборы, общественные дискуссии, психическое здоровье пользователей и защиту несовершеннолетних. Помимо этого, TikTok должен предоставить информацию о мерах по предотвращению манипуляций на платформе со стороны злоумышленников, а также о шагах, предпринимаемых для защиты выборов и медиа-плюрализма.
Платформам дан срок до 15 ноября 2024 года для предоставления запрашиваемой информации, иначе им грозят штрафы или судебные разбирательства
Закон о цифровых услугах, вступивший в силу в 2023 году, требует от платформ удаления незаконного контента, проведения ежегодной оценки рисков и независимого аудита. Нарушение этих требований может привести к штрафам до 6% от мирового годового оборота компании.
Проблемы с алгоритмами рекомендаций уже не раз вызывали критику. На TikTok, например,
алгоритм может демонстрировать вредный контент, включая теории заговора и видео, негативно влияющие на психическое здоровье, такие как ролики, связанный с расстройствами питания
Исследования показали, что значительная часть видео (до 50%) подбирается на основе предыдущего взаимодействия с платформой, что усиливает риск создания замкнутой информационной среды.
YouTube тоже долгое время сталкивается с критикой за работу своего рекомендательного алгоритма. Одной из основных проблем является то, что
алгоритм часто продвигает «пограничный контент» – видео, которые не нарушают правила платформы напрямую, но очень близки к этому
Это включает в себя дезинформацию, теории заговора и провокационные материалы, которые алгоритм считает более вовлекающими. Такой контент, как правило, вызывает больше взаимодействий, что делает его выгодным для платформы, несмотря на возможный вред обществу.
КОНТЕНТ ТРЕВОГИ НАШЕЙ
Все больше и больше стран видит, что крупные онлайн-платформы, такие как YouTube и TikTok, явно уделяют недостаточно внимания безопасности своих пользователей, обратил внимание эксперт РОЦИТ Максим Ксензов. Он отметил, что
алгоритмы нацелены на максимизацию вовлеченности, и это создает опасные ситуации, когда подбираются видео с дезинформацией или вредным содержанием
В итоге страдают как дети, подростки и даже взрослые.
Максим Ксензов, РОЦИТ:
– Нельзя просто так оставлять это на самотек – необходимы строгие меры контроля. И практика показывает, что обеспечить их соблюдение можно лишь на суверенных онлайн-платформах. У России они уже есть. Наша ИТ-отрасль активно развивается и уже готова предложить россиянам качественные альтернативы западным онлайн-площадкам.
При этом отечественные площадки намного серьезнее подходят к модерации контента, уделяя безопасности пользователей особое внимание, подчеркнул эксперт.
Рекомендательные алгоритмы иностранных онлайн-платформ фактически запирают пользователей в информационных пузырях, соглашается член Общественной палаты РФ, блогер, писатель Дмитрий Пучков.
Дмитрий Пучков, писатель:
– Например, американские ИТ-гиганты создают такие условия, что человек получает только тот контент, который выгоден западной пропаганде. Кроме того, из-за отсутствия надлежащей модерации алгоритмы могут предлагать еще пользователям, даже детям, противоправный контент. В целом иностранные платформы должны быть более ответственны в том, что и как они показывают людям.
В то же время в России активно развиваются качественные аналоги иностранным онлайн-площадкам
Отечественные платформы серьезнее подходят к модерации контента, поэтому к ним стоит присмотреться, отметил он.