Социальные сети и скрытые затраты на модерацию контента

Социальные сети и скрытые затраты на модерацию контента
Социальные сети и скрытые затраты на модерацию контента
Anonim

Подумайте, каково это сидеть в затемненной комнате по восемь часов в день, просматривая тысячи порнографических, жестоких и оскорбительных изображений и видео. Для модераторов человеческого контента это означает еще один день в офисе. А спрос на хороших рецензентов контента растет. Согласно недавнему исследованию, проведенному Pew Internet, примерно 74% взрослых в Интернете пользуются социальными сетями. По мере того, как за последние десять лет популярность социальных сетей резко возросла, все больше владельцев бизнеса начали изучать варианты эффективной модерации контента. Модерация контента отфильтровывает оскорбительный пользовательский контент, защищая бренд социальной сети, обеспечивая соблюдение условий и сводя к минимуму юридические риски. Некоторые компании применяют комплексный подход, используя высокотехнологичные решения, дополняющие их модераторов-людей; другие полагаются исключительно на команду рецензентов контента, которая тщательно изучает большую часть материалов, созданных пользователями.

Сегодняшняя ситуация с модерацией контента

Модерация личного контента является предпочтительным решением для многих крупных сайтов социальных сетей. Кто-то может возразить, что люди более эффективно отмечают неприемлемые изображения и видео, чем программы. К сожалению, у этого аргумента есть два серьезных недостатка. Во-первых, это просто неправда. В первые дни существования Интернета технология распознавания изображений была ограничена. Ранние версии этих программ распознавали телесные тона на изображениях или видео и автоматически помечали их как непристойные. Но в последние годы технология распознавания изображений значительно продвинулась вперед. Современные платформы модерации имеют усовершенствованные алгоритмы, которые позволяют компаниям отфильтровывать неприемлемый контент почти со 100% точностью. По мере развития технологий все больше компаний выбирают автоматизированные решения, чтобы облегчить работу своих рецензентов. Интегрированные машинные решения не только помогают оптимизировать процесс для рецензентов, но и эффективно сокращают расходы на модерацию контента для бизнеса.

Психологические издержки модераторов человеческого контента

Вторая (и самая тревожная) проблема модерации людьми заключается в том, что она дорого обходится рецензентам контента. Это фактор, который менеджеры социальных сетей не обязательно учитывают, изучая варианты модерации контента. Рецензенты изображений и видео, которым поручено помечать и фильтровать неприемлемый контент в социальных сетях, постоянно сталкиваются с одним из самых неприятных материалов в Интернете. Во многих случаях эти люди проводят большую часть своей рабочей недели, просматривая в Интернете непристойные и жестокие изображения и видео. В статье New York Times 2010 года один из обозревателей сообщает, что видел «…фотографии убийств банд, жестокого обращения с животными и извращенных форм порнографии». Другой модератор упоминает, что от изображений «трудно уйти».

Продолжительное воздействие такого типа контента может иметь серьезные последствия для здоровья модераторов. В недавней статье в London Free Press более подробно рассматривается, как неприемлемые изображения и видео негативно влияют на рецензентов контента. В статье, на которую есть ссылка в блоге поставщика технологий сканирования изображений Image Analyzer, предполагается, что многие из этих людей страдали от различных проблем со здоровьем и социальных проблем. «Они не ушли невредимыми», - говорит исследователь и профессор Западного университета Сара Робертс. Модераторы человеческого контента, опрошенные в этой статье, часто страдали от таких проблем, как злоупотребление наркотиками и алкоголем, тревожные воспоминания и изоляция от друзей и близких.

Заключительные мысли

Само собой разумеется, что пользовательский контент является фундаментальным строительным блоком любой успешной социальной сети. Но вместе с этим возникает и неотъемлемый риск. Всегда будут люди, которые решат не соблюдать правила сообщества. В свою очередь, сайты социальных сетей должны внедрить системы модерации для защиты своих пользователей. Компании, которые решили работать исключительно с командой рецензентов контента, могут подумать, что они используют лучший подход для своего бизнеса, но это часто происходит за счет самих модераторов. Уменьшение воздействия путем объединения автоматизированного решения с командой людей может помочь минимизировать риски для модераторов контента. Психолог, опрошенный в вышеупомянутых статьях New York Times, лучше всего резюмировала это, сказав: «Если вы работаете с мусором, вы испачкаетесь».