“Это намного легче построить систему ИИ, который может обнаружить соска, чем определить, что является лингвистически ненависти”.
Основатель Facebook Марк Цукерберг сделал это замечание в 2018 году, когда он был обсуждаем, как компания решает контент, который считается неприемлемым, или, в терминах Facebook, судят в нарушении стандартов сообщества.
Технологии искусственного интеллекта Facebook для выявления обнажение получает это право чаще, чем не. Между январем и мартом этого года Facebook снял 39.5 M кусков контента для взрослых нагота и сексуальная активность, и 99,2% он был автоматически удален, без пользователей его отчетности.
Там были 2,5 м жалобы на удаление и 613,000 материалов были восстановлены.
Facebook блокирует и не банит пользователей для обмена опекуна статья, показывающая аборигенов мужчин в цепях
Подробнее
Но это не работает каждый раз, и искусственный интеллект имеет проблемы с историческими фотографиями и картинами. Как опекун Австралия сообщила на этой неделе, пользователь был приостановлен для размещения изображения 1890-х мужчин-аборигенов в цепи в ответ на австралийского премьер-министра утверждают, – на котором он впоследствии отказалась – что в Австралии не было рабства.
Facebook признал, блокируя изображения пост был ошибкой и восстановил его, но рассказ Хранителя о блоке также не были опубликованы – как и последующий рассказ о первом рассказе был заблокирован. Мы получили десятки писем от читателей, которым мешали писать рассказы, или даже временно запретили Facebook за попытку вывесить их.
Само изображение было в белый список но системы Facebook не применить те же белые списки для обмена статьями с этого образа, что приводит к бесконечным циклом наказания.
Это была ошибка ИИ, но для людей, которые пытаются поделиться изображение или истории, казалось, что Facebook предпринимает неправильной, жесткой позицией по тому или иному вопросу, при этом позволяя другим должностям, в том числе воспалительных должности президента США Дональда Трампа – остаются нетронутыми.
Нет никаких сомнений, что Facebook имеет проблемы модерации котором он, в частности, пытаются автоматизировать свой выход из. Учитывая ужасающие истории о сторонних модераторов, страдающих посттравматическим стрессовым расстройством от того, чтобы рассмотреть контент на Facebook в течение всего дня – за которых десятки тысяч, которые сейчас ищут компенсацию, то неудивительно, Facebook пытается автоматизировать все.
Facebook уже использует ИИ умерить свою платформу для обнажения до точки, где пользователи обращаются несколько решений, но когда дело доходит до ненависти, дезинформации и другого содержимого, ИИ по-прежнему в работе.
Цукерберг пункт про “соски” является то, что это намного легче для системы, чтобы признать и раз заблокировать изображение без вмешательства человека, чем на аналогичную систему искусственного интеллекта для анализа текст поста или сообщения в контексте и определить его ненависти.
AI будет делать ошибки, но надеюсь, что она будет в конечном итоге узнать.
Это будет интересно посмотреть, какие ошибки делает в Facebook нанесения изображения-сканирование AI в своем стремлении ограничить количество дезинформации, распространявшейся на своей площадке в отношении Covid-19 пандемии.
В апреле компания ввела дезинформацию этикетки на 50м должности, связанные с Covid-19, на основе factchecks в 7500 статей. Он также исключил 2.5 M, например, масок для лица и рук увлажняющая с рынка с 1 марта.
Модераторы Facebook Присоединяйтесь к критике Цукерберг за козырную позицию
Подробнее
После того, как претензия была factchecked и считается дезинформацией, изображение, используемое в оригинальном посте по этой так это подобрали в будущем, когда люди пытаются поделиться. Идентичные изображения метки factchecking прикрепленные к нему, могут ли эти образы ссылке на статьи или нет.
Но беглый взгляд на какой-либо один из группы по-прежнему продвижение Covid, связанных с теориями заговора показывает, что много дезинформации-это скольжения через трещины. Пока нет доказательств того, что Facebook является “чрезмерной цензуры” дезу, независимо от того, что некоторые могут претендовать в этих группах.
Активист и журналист Кори Доктороу поднял этот вопрос на этой неделе, что Facebook постоянно просят взять на себя больше задач, модерация контента, но он сказал, что это может быть неправильный запрос.
Платформа настолько большой, он пытается определить, что является или не соответствующей содержанию различных культурах может быть лучше сократить до меньших масштабах, так что стандарты соответствуют социально-ответственной компанией, и есть прозрачный процесс обзора, который не требует вмешательства СМИ и общественное давление, чтобы удалить что – либо в этом случае, восстановить что-то.
Когда Facebook рассматривает ИИ как решение в ногу, Доктороу предлагает ИИ отказов показывает, задача слишком большая для Facebook или кто-то еще, и Facebook следует сократить до “размера, масштаба, где общины могут устанавливать и применять нормы”.
Свежие комментарии