Как работает модерация (и цензура) Facebook The Guardian опубликовал гайдлайны крупнейшей соцсети о насилии и порнографии. Их никто никогда не видел
Журналисты The Guardian изучили и опубликовали внутренние документы Facebook — серию презентаций, в которых описаны правила модерации контента в соцсети. В частности, в опубликованных презентациях содержатся гайдлайны, по которым модераторы признают тот или иной контент (насилие, жестокое обращение с животными, порнография и так далее) нарушающим внутренние правила Facebook. Документы опубликованы впервые. Как именно журналистам удалось получить доступ к ним, в публикациях The Guardian не раскрывается.
The Guardian удалось ознакомиться с десятками презентаций, методических пособий и сборников правил, в которых разъясняется работа модераторов Facebook с самым разным контентом — от разжигания ненависти и вражды до терроризма и каннибализма. Издание посвятило внутренним материалам Facebook десять публикаций, в том числе обнародовав презентации, в которых разъясняются правила работы для модераторов с такими темами, как изображение насилия и самовредительства, публикация угроз, порнографии, фотографий и видео насилия над детьми и жестокого обращения с животными.
Как показывают опубликованные документы, Facebook пользуется колоссальным количеством правил и рекомендаций, подробно рассматривающих самые разные примеры публикации пользователями спорного контента. К примеру, в одной из презентаций рассказано, каким критериям должны соответствовать фото- или видеоматериалы, чтобы их можно было удалить как проявление «мести с помощью порно» (revenge porn; материалы должны содержать изображения сексуального характера, сделанные в «частной обстановке» и без согласия субъекта съемки). Отдельно оговариваются случаи, когда изображение наготы не должно рассматриваться как порнография — например, если речь идет о новостной фотографии, представляющей общественную значимость.
Не менее подробно разбирается работа модераторов с публикацией угроз. В Facebook считают, что далеко не любые проявления грубости следует считать угрозами и следовательно подвергать цензуре. Так, фраза «Пристрелите уже Трампа кто-нибудь» считается угрозой в адрес политического деятеля, а фраза «сдохни уже наконец» — лишь примером «использования грубой лексики для выражения несогласия». В качестве примеров допустимой грубости в презентации также значатся фразы «Давайте избивать толстых детей» и «Если хотите сломать суке шею, сосредоточьте давление на середине глотки».
В случае, если речь идет об изображении сцен насилия и жестокости, Facebook руководствуется правилом: оградить от такого контента несовершеннолетних, а совершеннолетним — предоставить право самостоятельно решать, смотреть его или нет. Опрошенные The Guardian представители компании признали, что иногда публикация жестокого контента помогает «привлечь внимание к проблеме и спасти жертву жестокого обращения». Поэтому Facebook позволяет публиковать сцены несексуального насилия над детьми и жестокого обращения с животными. В исключительных случаях такие материалы сопровождают специальной пометкой. Категорически запрещены лишь фото и видео, где присутствуют «признаки садизма или прославления насилия».
Отдельная публикация посвящена службе модерации Facebook и ее работе. Как пишет The Guardian, с компанией работают 4500 контент-модераторов, и в ближайшее время Facebook хочет нанять еще 3000. Большинство работают на аутсорсе, хотя есть и собственная небольшая команда, занимающаяся модерацией. Ежедневно модераторы Facebook сталкиваются с миллионами жалоб на контент (только количество жалоб на фейковые аккаунты достигает 6,5 миллиона в неделю). Часто на принятие решения — оставить контент в неизменном виде, сопроводить его предупреждением или удалить — у сотрудника есть всего десять секунд.
The Guardian предлагает читателям на себе испытать работу модератора Facebook с помощью интерактивного теста: нужно, руководствуясь внутренними правилами, решить, можно ли публиковать в соцсети те или иные изображения.
В самой компании сложности в работе объясняют не только объемом контента, но и «культурными различиями» между представителями глобальной аудитории Facebook. «Разные люди по-разному смотрят на то, чем допустимо делиться на сайте, — говорит Моника Биккерт, отвечающая в Facebook за глобальную контентную политику. — Где бы вы ни провели эту черту, всегда будут оставаться „серые зоны“».
Гайдлайны Facebook, занимающие тысячи слайдов и картинок, наверняка спровоцируют новую дискуссию об онлайн-этике и о роли крупнейшей в мире соцсети. […] Критикам может показаться, что что Facebook должна делать значительно больше для фильтрации контента, разжигающего ненависть или содержащего изображения жестокости. Однако сторонники свободы слова наверняка будут обеспокоены ролью крупнейшего в мире цензора, которую приняла на себя соцсеть. Обе стороны, скорее всего, потребуют от Facebook большей прозрачности (англ. яз.).