
Бывший модератор контента подает в суд на Facebook, потому что из-за ее работы у нее появился посттравматический стресс
Бывший модератор контента Facebook подал в суд на компанию из-за посттравматического стресса, который, по ее словам, у нее возник после того, как она увидела тревожные изображения. Александр Кернер / Getty Images
Бывший модератор контента Facebook подал в суд на компанию социальных сетей, заявив, что у нее развилось посттравматическое стрессовое расстройство в результате воздействия «видео, изображений и прямых трансляций сексуального насилия над детьми, изнасилование, пытки, зоофилие, обезглавливание, самоубийство и убийство »на работе.
Ведущий истец Селена Скола из Сан-Франциско работала на подрядчика Pro Unlimited, Inc., который помогает Facebook удалять контент, нарушающий правила. в период с июня 2017 года по март 2018 года. По ее словам, она «постоянно подвергалась воздействию высокотоксичных и крайне тревожных изображений на рабочем месте», что привело к развитию посттравматического стрессового расстройства.
Иск, Скола v. Facebook Inc. и Pro Unlimited Inc., поданная 21 сентября в суд штата Калифорния в округе Сан-Матео, утверждает, что модераторы контента не защищены должным образом. «Facebook игнорирует свой долг по обеспечению безопасного рабочего места и вместо этого создает вращающуюся дверь для подрядчиков, которые непоправимо травмированы тем, что они стали свидетелями на работе», - сказал Yahoo Finance Кори Нельсон из юридической фирмы Burns Charest LLP. P >
В иске утверждается, что Facebook не предоставляет достаточных медицинских услуг или методов обучения для подготовки или ухода за сотрудниками, которые берут на себя задачу модерировать контент, размещаемый более чем 2 миллиардами пользователей платформы по всему миру.
"РС. Симптомы посттравматического стрессового расстройства у Сколы могут возникнуть, когда она дотрагивается до компьютерной мыши, входит в холодное здание, смотрит сцены насилия по телевизору, слышит громкие звуки или испугана », - говорится в иске. «Ее симптомы также возникают, когда она вспоминает или описывает графические изображения, с которыми она сталкивалась в качестве модератора контента».
У Facebook есть около 7500 модераторов контента по всему миру, в обязанности которых входит удаление языка ненависти, сцен насилия, изображений и видео, содержащие членовредительство, наготу и материалы сексуального характера, издевательства и другие материалы, нарушающие его политику.
«Мы не просто видим графические видео - вам придется внимательно их смотреть, часто неоднократно. , для конкретных индикаторов политики », - сообщил источник Vice Motherboard.
В иске Scola содержится просьба к суду создать« финансируемую Facebook программу медицинского мониторинга »для тестирования и оказания помощи модераторам контента с посттравматическим стрессовым расстройством. p>
комментариев