Политика YouTube: разрешить нельзя блокировать

На каких принципах строится фильтрация контента американской онлайн-платформой

YouTube все чаще блокирует публикации и аккаунты российских СМИ и блогеров. При этом пропускает большое число фейковых новостей, которые возмущают даже западную прессу. Одни эксперты считают, что видеохостинг таким образом придерживается американского законодательства. Другие видят в этом политический диктат США и неспособность воспринимать альтернативную позицию. Участники IT-рынка рассказали о технологических решениях для непредвзятого выявления фейков.


КАК ВИДЕОХОСТИНГ ЗАРАБАТЫВАЛ НА ОБМАНЕ

Почти ежемесячно в 2020 году иностранные социальные сети и YouTube подвергали цензуре аккаунты российских СМИ. Среди них агентство РИА ФАН, РИА Новости, Anna News, Russia Today, «Крым 24», «60 минут», «Украина.ру», Sputnik. Модераторы YouTube квалифицировали некоторый контент перечисленных СМИ как «недопустимый». В свою очередь, Instagram продолжает блокировать аккаунты региональных медиа России, сообщил 22 января в ходе круглого стола на тему блокировок в Общественной палате РФ (ОП) первый заместитель председателя комиссии по СМИ ОП РФ Александр Малькевич.

При этом видеохостинг не замечал очевидных фейковых публикаций, а порой активно их продвигал, дезинформируя зрителя.

В конце декабря Роскомнадзор назвал YouTube лидером по объему контента с недостоверной информации. «60% фейков, связанных с темой вируса COVID-19, распространялись с видеосервиса», – сообщило тогда ведомство. Помимо российских надзорных органов, крупные зарубежные СМИ уличали администрацию YouTube в игнорировании заведомо ложной информации на онлайн-платформе. В сентябре 2019 года BBC News провело расследование и выяснило, что алгоритм YouTube продвигает псевдомедицинский контент.

Выполняя поиск на десяти языках, 

журналисты BBC нашли более 80 видеороликов, содержащих дезинформацию на тему здоровья

В основном про ложные лекарства от онкологии. Десять видео имели более миллиона просмотров. Авторы контента предлагали лечиться от рака соками, куркумой, пищевой содой и даже молоком ослиц.

В 47 из 80 роликов была интегрирована реклама крупных компаний. Когда корпорации узнали, что их бренды показывают в начале фейковых роликов, то немедленно связались с YouTube и попросили удалить информацию.

Научный медицинский журнал BMJ Global Health провел исследование в начале 2020 года на предмет фейковых новостей на глобальном видеохостинге. Из 69 изученных роликов на английском языке треть содержали ложную информацию. Ее посмотрели 62 млн зрителей.

YouTube имеет специфические правила борьбы с распространением фейков о COVID-19. Под запрет подпадает информация, касающаяся ложных сведений о лечении, профилактике, диагностике и путях передачи инфекции. Но отдельно оговорено, что «публикация роликов, нарушающих перечисленные правила, может быть разрешена, если материалы дополнены контекстом, в котором в равной или большей степени признается информация от местных органов здравоохранения или медицинского и научного сообщества». 

Осенью 2020 года на YouTube произошел беспрецедентный случай. В поиске по запросу «Результаты президентских выборов LIVE 2020» за несколько часов до окончания голосования появились фальшивые данные.















Источник: Insider


Такую дезинформацию демонстрировали 8 из 20 лучших видеороликов по версии YouTube. После того как издание Insider отправило запрос в YouTube о причинах продвижения очевидных фейков, видеосервис удалил ролики либо внес пометки, что контент о голосовании носит предварительный характер.

«На YouTube размещено огромное количество недостоверной информации – взять хотя бы ролик сторонников теории плоской Земли, – поясняет RSpectr генеральный директор ассоциации “Интернет-видео” Алексей Бырдин. – Нужно понимать, что YouTube действует в рамках американского законодательства, которое запрещает любые ограничения свободы слова, поэтому никакую, даже самую лютую чушь видеохостинг фильтровать и удалять по своей инициативе не будет».

Алексей Бырдин, ассоциация «Интернет-видео»:

– Особым образом обстоят дела с информацией вокруг выборов в США 2020 года. Публикации президента Трампа и части его сторонников квалифицированы как общественно опасные, в том числе в силу наличия жертв при штурме Капитолия, который случился после широкого распространения недостоверных сведений о фальсификации выборов, опровергнутых на всех уровнях, включая суды штатов и Верховный суд США. Это, наверное, первый крупный прецедент подобного рода, оценка которому будет дана в ближайшее время.

Напомним, что американские сервисы заблокировали доступ к аккаунтам Д.Трампа. Причиной стали высказывания о краже у него голосов на президентских выборах и призыв идти к Капитолию.

«Из-за блокировки аккаунта Д.Трампа Facebook потерял на падении акций 41 млрд долларов, Twitter – 3 млрд долларов. В таких политически мотивированных историях прибыль уходит на второй план», – считает А.Малькевич. Он также отметил, что YouTube скручивал дизлайки, которые ставили зрители в ходе трансляции инаугурации нового президента США.


ГИБКИЕ ПРИНЦИПЫ

Руководитель юридического отдела хостинг-провайдера и регистратора доменов REG.RU Павел Патрикеев сообщил RSpectr, что YouTube действует в рамках законодательства США и параллельно учитывает свои коммерческие интересы – увеличение трафика, числа рекламодателей.

Представитель хостинг-провайдера напомнил, что у видеосервиса есть своя позиция относительно fake news, включенная в раздел о борьбе с мошенничеством и обманом. В ней есть запрет на распространение определенного рода информации о внутренней политике США. «Блокировка контента, касающегося протестов в США или аналогичных острых тем о статусе ЛНР и ДНР, связана с нарушением установленного ограничения», – пояснил П.Патрикеев.

Многие эксперты считают, что

цензура в ряде случаев связана с менталитетом американцев

Алексей Бырдин, «Интернет-видео»: 

– Общество в США весьма консервативно, поэтому в правила видеосервиса заложены возрастные ограничения на демонстрацию сцен с насилием. Эти нормы во многом более жесткие, чем наш закон «О защите детей от информации, причиняющей вред их здоровью и развитию», на который привыкли ориентироваться российские телевизионщики. Замечу, что все пользователи YouTube, выкладывая свои видеоролики, выражают согласие с этими правилами. Если для российских телекомпаний важна площадка YouTube и они хотят оставаться в категории 0+, им просто надо кое-где адаптировать выкладываемый контент к возрастным требованиям.

Член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин согласен, что предпочтения американцев влияют на цензуру. Если в аккаунте СМИ выкладывается политический материал с альтернативным для американцев взглядом на происходящее в мире, то можно ожидать жалобы от пользователей. «Их рассмотрение бывает очень тенденциозным. Вплоть до блокировки неправильной информации, по мнению администраторов онлайн-платформы», – сообщил RSpectr депутат.

Антон Горелкин, Госдума:

– Это просто разные типы контента. Грубо говоря, владельцы YouTube считают, что от ролика, в котором учат забивать «косяк» с марихуаной, мир не погибнет. А вот если кто-то высказывает недостаточно либеральные мысли, то речь идет об угрозе миропорядку, и рот надо заткнуть. Это очевидное проявление цензуры в американских социальных сетях и платформах.

Основатель IT-компании «Ашманов и партнеры» Игорь Ашманов сообщил, что пора расставаться с иллюзиями о независимости онлайн-платформ, которые якобы цензурируют контент на свое усмотрение. «Все владельцы крупнейших IT-гигантов в США подчиняются сенату этой страны, который заставляет их часами отчитываться и оправдываться за то, что они не нашли русских хакеров», – считает И.Ашманов.

Есть мнение, что 

у администрации YouTube сформированы внутренние стоп-листы со списком российских деятелей и компаний

Об этом рассказал RSpectr А.Малькевич. «Правила модерации контента непрозрачные, а сотрудники для этой процедуры привлекаются с русофобскими взглядами из Прибалтики и Украины. Транснациональные IT-корпорации относят Россию к странам третьего мира и оттачивают на нас инструменты цензурирования. При этом зарабатывают на продвижении фейкового контента», – сообщил эксперт.

В конце 2020 года эксперты из Цюрихского университета опубликовали исследование, в котором сравнили подверженность граждан 18 разных стран фейкам в Сети. Они пришли к выводу, что лучше всех информационный иммунитет выработан у жителей Северной Европы во главе с Финляндией, где показатель устойчивости составляет +7, Данией (+5), Великобританией (+4). Намного доверчивее оказались южные европейцы. Греция – -6, Италия – -5. А вот жители США заняли последнее место с оценкой -11.


КАКИЕ IT-РЕШЕНИЯ ИЗБАВЯТ ОТ ФЕЙКОВ

А.Малькевич считает, что пока нет программных продуктов, способных эффективно бороться с недостоверным контентом, хотя они очень нужны. Ведь 

потребление информационного фастфуда приводит к интеллектуальному ожирению

Но процесс детекции фальшивого контента уже идет. Технологии обнаружения дипфейков (видеоподделки, создаваемые искусственным интеллектом) развиваются. Такие IT-гиганты, как Facebook и Microsoft, вкладывают миллионы долларов в IT-решения по фильтрации с использованием искусственных нейросетей.

CEO лаборатории Deepcake Мария Чмир рассказала RSpectr, что Facebook в прошлом году подвел итоги масштабного конкурса на разработку алгоритма, который позволит обнаруживать и помечать дипфейки в автоматическом режиме. Решение победителя показало точность около 65 процентов. То есть он работает чуть лучше подброшенной монетки, констатирует М.Чмир.

Более существенного прогресса в решении задачи детекции достигли ученные из Бингемтонского университета при поддержке Intel.

Мария Чмир, Deepcake: 

– Их модель обучена отличать естественный и генеративный шумы на фото: при существенном увеличении областей кадра исследователи зафиксировали, что реальные снимки «шумят» иначе, чем фейковые. Для диагностики алгоритм отслеживает 32 точки на лице человека, которые называются «клетками фотоплетизмографии» (PPG). Точность этого алгоритма превосходит 97 процентов.

Еще один достоверный метод открыт учеными из Стенфордского и Калифорнийского университетов. Он основан на сравнении визем и фонем сгенерированного рта и настоящих губ. «Визема – это мимическая реализация фонемы. У нейросетевых изображений часто встречается рассинхронизация между тем, как звучит то или иное слово, и тем, как оно произносится. Для коротких текстов точность данного подхода достигала 98 процентов», – рассказала М.Чмир.

В целом для решения задачи детекции дипфейков исследователям пока не хватает данных, и один из выходов – синтезировать их

Получается парадоксальная ситуация: чтоб научиться защищаться от дезинформации, нужно создать как можно больше примеров недостоверных видео, фото и аудио.

В первой половине 2020 года представители YouTube публично заявляли, что компания увеличила полномочия автоматизированной системы, которая определяет, считать ли контент запрещенным, напомнил П.Патрикеев.

И если раньше система отбирала информацию, присваивала приоритет и отправляла ее на модерацию сотруднику, то из-за пандемии количество автоматических разборов выросло. Это привело к резкому росту блокировок. Во второй половине 2020 года начали появляться заявления о том, что из-за неточности алгоритмов компания все же планирует увеличить штат модераторов.

Павел Патрикеев, REG.RU:

– Где конкретно проходит водораздел между машинами и людьми – доподлинно неизвестно, но в целом система работает как симбиоз. То есть материалы нулевой толерантности (вроде детской порнографии) блокируются почти моментально автоматической системой, а вот более специфический контент анализируется уже с привлечением людей. Особенно там, где вопросы касаются региональных законодательных ограничений.

Эксперт считает, что непредвзятая оценка невозможна. Алгоритм подобного рода решений отталкивается от заложенных в него предположений, которые зависят от ценностной ориентации разработчика.

Есть и технические ограничения для автономной работы таких систем. Так, Google собирает гигантские объемы данных, которые могут быть использованы для машинного обучения. Но в настоящий момент все равно вынуждена прибегать к симбиозу программного и человеческого решения.

Показательно, что компании, не имеющие аналогичных ресурсов, вынуждены «рубить сплеча»

«Например, стриминговая платформа Twitch, у которой нет возможности для подробного анализа каждого кейса. При этом конвейерный подход не может адекватно работать для сложных или специфических ситуаций. Подобные системы в настоящий момент скорее занимаются определением приоритета заявок и самостоятельной блокировкой наиболее очевидных и вопиющих нарушений (использование свастики в кадре, порнография). Но даже здесь они ошибаются», – сообщил П.Патрикеев.

Более тонкие вопросы, где нужно понимание контекста, культурных и региональных особенностей, всегда будут требовать человеческого участия, ведь речь идет о ценностном анализе и принятии решений на его основе.

Изображение: RSpectr, Freepik.com

ЕЩЕ ПО ТЕМЕ:

Контент – под ответственность
Депутаты обязали соцсети выявлять и блокировать запрещенную информацию