Вы здесь
На RIGF 2022 обсудили особенности работы с деструктивным контентом События в стране 

На RIGF 2022 обсудили особенности работы с деструктивным контентом

Российские ИТ-эксперты и социологи обсудили особенности работы с деструктивным контентом

Фото: Robert Nickelsberg / Getty Images

Сегодня в рамках Российского форума по управлению интернетом (RIGF 2022) состоялась сессия «Российский и мировой опыт в сфере борьбы с деструктивным контентом. Роль и ответственность цифровых платформ». На ней ведущие эксперты отрасли обсудили отношение россиян к деструктивному контенту в сети, роль государства в его регулировании и также причины несовершенства модерации на популярных иностранных платформах.

Как заметила модератор мероприятия, директор Института проблем правового регулирования НИУ ВШЭ Анна Дупан, «Деструктивный контент — общая проблема для всех стран, потому что интернет единый, все страны сталкиваются с одними и теми же проблемами».

Слова Дупан подтвердил заместитель председателя правления Регионального общественного центра интернет-технологий (РОЦИТ) Вадим Ампелонский. В рамках дискуссии эксперт привел результаты социологического опроса пользователей интернет-платформ, проведенного организацией. Как показало исследование, с деструктивным контентом в интернете сталкиваются большинство опрошенных — 75 процентов.

Помимо этого, 82 процента респондентов считают, что нужно ограничивать доступ к незапрещенному деструктивному контенту, а 70 процентов уточнили, что необходима разработка его научной классификации. Кроме этого, 73 процента респондентов уверены, что нужно ограничивать распространение деструктивного контента в информационной среде. Иными словами, более половины опрошенных «считают, что на законодательном уровне должны быть поставлены эффективные барьеры для того, чтобы деструктивный контент не распространялся. Или во всяком случае доступ определенных категорий граждан к этому контенту был ограничен», — сказал Вадим Ампелонский.

Эксперт также отметил осведомленность россиян в том, куда можно направить жалобы на противоправный контент. «Радует то, что пользователи знают, где находятся инструменты реагирования на деструктивный контент, они научились ими пользоваться. И хотя бы раз отправляли жалобы руководству платформы — 41 процент», — подчеркнул он.

Необходимость постоянной работы с деструктивным контентом обуславливается реалиями быстро меняющегося мира, которые вынуждает регулярно пересматривать критерии его оценки. Как заметил заместитель генерального директора по правовым вопросам «Института развития интернета» Борис Едидин, «мы за десять лет прошли путь от довольно четко сформулированного перечня запрещенной информации, которая однозначно признается не только в России, но и во всем мире к довольно разношерстному набору сведений, которые запрещены, которые связаны как с непосредственным влиянием на жизнь и здоровье подростков или взрослого населения и развитие государства, но и с осуществлением отдельных видов экономической деятельности: когда мы говорим о продаже лекарств, продаже алкогольной продукции».

Влияние этого фактора подтвердил и Вадим Ампелонский, опираясь на прежний опыт работы в Роскомнадзоре. По его словам, в ведомство поступало большое количество обращений граждан на контент, который не был прямо запрещен законом, однако вызывал беспокойство определенной части общества. Он подчеркнул важность взаимодействия всех общественных институтов. «Государственный орган не может работать, будучи оторванным от взаимодействия с общественными организациями, с компаниями, то есть с бизнесом, с конкретными гражданами», — сказал эксперт.

Журналистским опытом работы с деструктивным контентом поделился главный редактор Lenta.ru Владимир Тодоров. Эксперт упомянул несовершенство модерации деструктивного контента, в частности на таких западных площадках как Facebook и Instagram. (обе соцсети запрещены в России; принадлежат компании Meta, которая признана экстремистской и запрещена в РФ)

«Они обычно используют метод, при котором сначала работает алгоритм, а потом спорные кейсы он отправляет на анализ модератору. Беда в том, что алгоритм работает не очень хорошо и нет оснований полагать, что на основании того набора данных, который существует и тех решений, которые он принимает, он начнет работать радикально лучше», — прокомментировал он.

Также Владимир Тодоров затронул тему недостаточного количества реальных модераторов на западных платформах. «Модераторов людей просто категорически не хватает, потому что для того, чтобы их хватало и у них было достаточное количество времени и достаточные условия качества работы, чтобы принимать хорошие решения, тому же Facebook и Instagram нужно нанять их там в 10, в 20 раз больше, чем их есть сейчас. И естественно, компании на это идти не готовы, потому что это уменьшает их объем чистой прибыли, причем уменьшает радикально», — подчеркнул эксперт.

Директор по связям с государственными органами VK Константин Голуб рассказал об альтернативном подходе к модерации контента. Он выделил три ключевых момента: работа с технологиями, работа с обращениями пользователей и работа с порядком доступа. Данный способ называется гибридным — в совокупности с жалобами пользователей и настройками коммуникационной системы он способен достаточно оперативно удалять запрещенный контент, уточнил Голуб.

Похожие записи