Из социальной сети Facebook изображение, на которых люди сами себя калечат, будут удалять. Компания пошла на такой шаг после критики своих правил модерации вредоносного контента.
Об этом пишет «The Guardian».
– С апреля по июнь 2019 года в Facebook мы отфильтровали более 1,5 миллиона различного контента относительно самоубийства и нанесение себе людьми травм. 95% из этого количества мы обнаружили еще до того, как нам сообщили об этом другие пользователи. В Instagram мы приняли меры по более 800 тыс такого контента. 77% было убрано до представления нам жалобы, – написал Facebook в своем блоге.
Facebook имеет команду модераторов, которая следит за контентом и фильтрует, к примеру, прямые трансляции насильственных действий или самоубийств.
Для модерации компания работает с по крайней мере пятью аутсорсинговыми поставщиками услуг минимум в восьми странах.
Напомним, что Facebook больше не обещает бесплатное пользование сайтом.