Мета говорит, что проекты по защите прав человека могут занимать «очень много времени» и длиться год и более
Надзорный совет, который рассматривает решения и политику компании в отношении модерации контента, попросил Meta провести исследование. Фотография: Chris Delmas/AFP/Getty Images Наблюдательный совет, который анализирует решения и политику компании в отношении модерации контента, попросил его провести исследование. Фотография: Крис Делмас/AFP/Getty ImagesДэн Милмо и агентства, пятница, 14 января 2022 г., 13:45 по Гринвичу
Первая публикация опубликована в пятницу, 14 января 2022 г., 13:44 по Гринвичу
Владелец Facebook и Instagram заявил, что «оценит возможность» проведения независимого исследования прав человека, связанного с его работой в Эфиопии, после того, как надзорный совет компании призвал его расследовать, как его платформы использовались для распространения ненависти и непроверенных слухи в стране.
Надзорный совет, который рассматривает решения и политику модерации контента компании, попросил Meta провести исследование после того, как он поддержал удаление поста в Facebook, в котором утверждалось, что этнические тиграйцы причастны к зверствам в эфиопском регионе Амхара. Поскольку платформа впоследствии восстановила публикацию после апелляции разместившего ее пользователя, Facebook пришлось снова удалить ее.
В рамках постановления совет рекомендовал материнской компании Facebook провести независимую комплексную оценку прав человека на предмет того, как Facebook и Instagram «использовались для распространения ненавистнических высказываний и непроверенных слухов, которые повышают риск насилия в Эфиопии». В декабре прошлого года правление заявило, что исследование должно охватывать период с июня 2020 года «по настоящее время» и должно занять шесть месяцев. В то время как решения совета директоров о модерации контента являются обязательными, его политические рекомендации не являются таковыми.
Эфиопия: Тыграй находится на грани гуманитарной катастрофы, заявила ООНЧитать далее
Ответ на рекомендацию совета в четверг , Мета сказал, что проекты по защите прав человека могут быть «очень трудоемкими» и длиться год или более. Он добавил, что рассмотрит возможность такого шага.
«Мы продолжим существующие процессы должной осмотрительности в области прав человека и динамического управления рисками и оценим осуществимость соответствующего проекта должной осмотрительности. Мы ожидаем предоставить обновление в течение следующих нескольких месяцев», — сказал Мета.
Усилия Meta по модерации в неанглоязычных странах находятся под пристальным вниманием с тех пор, как было обнаружено, что они способствовали насилию против рохинджа, мусульманского меньшинства в Мьянме. В 2018 году Facebook признал, что сделал недостаточно для предотвращения подстрекательства к насилию и разжиганию ненависти в отношении рохинджа. Независимый отчет, подготовленный по заказу компании, показал, что «Facebook стал средством для тех, кто стремится распространять ненависть и причинять вред, а сообщения были связаны с насилием в сети».
Фрэнсис Хауген, бывший сотрудник Meta, которая сообщила о методах модерации в компании, предупредила, что компания социальных сетей разжигает этническое насилие в Эфиопии. В показаниях перед американскими законодателями Хоген сказал, что, хотя только 9% пользователей Facebook говорят по-английски, 87% средств, расходуемых платформой на дезинформацию, приходится на англоязычных пользователей.
Тысячи людей умерли и миллионы были перемещены во время годичного конфликта между правительством Эфиопии и повстанческими силами из северного региона Тыграй.
Мета добавила в своем заявлении в четверг, что она «вложила значительные ресурсы в Эфиопии для выявления и удаления потенциально опасного контента» в ответ на декабрьские рекомендации совета.
Представитель наблюдательного совета заявил в своем заявлении: «Существующие правила Meta запретить слухи, способствующие неизбежному насилию, которые не могут быть опровергнуты в разумные сроки, и правление дало рекомендации по обеспечению эффективного применения этих политик в конфликтных ситуациях.
«Слухи о предполагаемом этническая группа является соучастником в зверствах, как в данном случае, могут нанести серьезный вред людям».
Свежие комментарии