Юристы предложили интернет-компаниям активнее использовать механизмы саморегулирования для борьбы с противоправным контентом

27 февраля в Университете имени О.Е. Кутафина (МГЮА) состоялось
заседание Комиссии по правовому обеспечению цифровой экономики Московского
отделения Ассоциации юристов России.

В первой секции рассматривался вопрос распространение недостоверного и противоправного контента в сети Интернет, пропаганда идей экстремистского характера может повлечь существенные негативные последствия для общества, в том числе нанести значительный вред развитию интернет-индустрии в России. Негативный контент способен подорвать авторитет добросовестных граждан и компаний, в ряде случаев – привести к оттоку пользователей с платформ. Отдельной проблемой является распространение персональных данных, а также недостоверной информации в сети.

В заседании приняли участие представители Государственной Думы, Роскомнадзора, «Яндекса», Mail.Ru Group, Фонда развития интернет-инициатив (ФРИИ), АО «Газпром–Медиа Холдинг» и другие эксперты.

По мнению экспертов Комиссии, в России для борьбы с противоправным контентом следует рассмотреть возможность разработать механизмы саморегулирования, направленные на создание общего стандарта взаимодействия площадок с пользователями. Например, аналогичная практика уже работает в рамках антипиратского меморандума и позволяет оперативно удалять нелегальный аудио - и видеоконтент.

По словам заместителя исполнительного директора руководителя аппарата Ассоциации юристов России Дмитрия Липина, предоставление интернет-ресурсам возможностей саморегулирования по вопросам противодействия размещению противоправного контента является необходимой превентивной мерой, которая позволит оперативно удалять запрещенные законодательством пользовательские материалы и, тем самым, снизить как скорость и охват их распространения, так и нагрузку на правоохранительную и судебную систему. Важно также установить рамки саморегулирования со стороны государства.

«Снижению этой нагрузки также может способствовать и введение механизма направления операторам интернет-платформ прокурорских предостережении до выхода прокуратуры в суд с административными исками о блокировке интернет-ресурсов, на которых размещены материалы, противоречащие российскому законодательству», - сообщил Липин.

Директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ) Александры Орехович считает, что саморегулирование обладает важнейшими отличительными по сравнению с законодательным регулированием особенностями. Прежде всего — это гибкость и быстрота. Что является крайне важным, учитывая, что условия развития Интернета, оборота информации и контента в нем постоянно меняются и развиваются. И в этом смысле именно саморегулирование готово обеспечить адекватные и оперативные меры реагирования”.

«Существуют различные виды контента и подход к их регулированию не может быть единым. Важно не подменять судебный контроль иными инструментами. Необходимо также опираться на уже существующий правоприменительный опыт.  Яндекс действует в строгом соответствии с действующим законодательством. Любые варианты дополнительного регулирования (и закон, и саморегулирование) нужно тщательно изучать и прорабатывать, чтобы выработать сбалансированное и равноприменимое решение», - отметила начальник отдела юридического департамента ООО «Яндекс» Лина Геворгян.

Константин Голуб, директор по связям с государственными органами Mail.ru Group высказал следующую точку зрения: «Возможности площадок с пользовательским контентом по модерации контента ограничены правами пользователей и здравым смыслом. Механизм обработки жалоб самих пользователей на контент является основой модерации. Поэтому мы стараемся максимально понятно и подробно рассказывать о модерации, настройках приватности в специальных разделах на своих ресурсах. С точки зрения правового регулирования в данной сфере действующих механизмов достаточно, они работают. В то же время была бы полезна детализация утвержденных критериев оценки материалов на предмет содержания в них запрещенной информации, чтобы эффективнее справляться со спорными ситуациями и сложным контекстом».

Александр Савельев, заместитель председателя Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, подчеркнул: 

«При решении вопроса о возможном саморегулированиие контента в общей системе регулирования контента в России, необходимо разделить весь контент на две группы: 1) контент, имеющий социальное происхождение (например, выражающий переживания или мнение лица по определенному вопросу)

и 2) контент, который порожден технологией и носит преимущественно «искусственный» характер (например, изображение или голос лица, сгенерированные с помощью технологий, подобных DeepFake). Первая группа контента, являясь реализацией конституционных прав на свободу слова и распространения информации, требует взвешенного и сбалансированного подхода при принятии решения о блокировке, в связи с чем должен быть судебный контроль за такого рода вопросами. Саморегулирование здесь если и возможно, то преимущественно в тех случаях, по результатам тщательного анализа сложившейся практики и вывода о том, что по каким-то причинам не срабатывают существующие механизмы. Иными словами, саморегулирование здесь не должно подменять и ужесточать существующие механизмы. Вторая группа контента будет становиться все более распространенной в ближайшие годы и требует оперативного ответа преимущественно техническими средствами (принцип «проблема, порожденная технологией, должна решаться, в первую очередь, самой технологией»)».

Как отметил член Комиссии, со-основатель Moscow Digital School Борис Едидин, интернет-платформы на своем сайте должны размещать политику противодействия распространению противоправного контента, содержащую перечень организационных мер по борьбе с ним, также платформы должны обеспечивать возможность приема обращений и регулярно публиковать отчеты о результатах борьбы с распространением подобной информации.

Предложения, которые были озвучены, — это то, что в части нужно оставить регулирование государства и регулятора (Роскомнадзор), где уже сформировалась практика, а в части «серой зоны» (фейковые новости, другие виды неурегуулированного контента) следует рассмотреть возможность саморегулирования — здесь должно быть добровольное объединение участников рынка», — сказал председатель комиссии, управляющий партнер юридической компании «ЭБР» Александр Журавлев.

Справочно:

В Европейском союзе наряду с требованиями государственных органов о борьбе с противоправным контентом участники рынка разработали собственный Кодекс по борьбе с дезинформацией в Интернете. Кодекс представляет собой пример саморегулирования интернет-платформ и рекламных ассоциаций. На основе принятого документа Google, Facebook, Mozilla и Twitter опубликовали подробные «дорожные карты», отражающие их планы для усиления мер по борьбе с дезинформацией перед выборами в Европейском Союзе. В частности, каждой из платформ были разработаны инструменты повышения прозрачности политической рекламы, процедуры ведения архивов, а также специальные процедуры сотрудничества с агентствами проверки публикуемых фактов.

Кроме того, 15 февраля 2020 года социальная сеть Facebook анонсировала планы по привлечению более 30 000 сотрудников для самостоятельной обработки контента, а также по созданию специального надзорного совета для обжалования решений по контенту.