Сэр Ник Клегг
Сэр Ник Клегг переходит в наступление. Глобальный руководитель отдела политики и PR Facebook и бывший вице-премьер написал статью из 5000 слов, опровергающую утверждения о том, что алгоритмы компании наносят ущерб обществу и узурпируют контроль людей над своей жизнью.
Facebook Facebook News feed, утверждая, что технологические гиганты должны дать пользователям больше контроля и прозрачности над алгоритмами, такими как Facebook.
Он также иллюстрирует новые тезисы Facebook, которые ранее были представлены в показаниях главного исполнительного директора Марка Цукерберга Конгрессу на прошлой неделе и в утечке внутреннего брифинга, призванного помочь сотрудникам «пойти домой и поужинать» со скептически настроенными друзьями и семьей.
Но его длинному блогу также удается избежать некоторых менее благоприятных проблем.
Facebook не будет делиться своими собственными (страшными) исследованиями
Сэр Ник тратит много времени на борьбу с идеей, что Facebook разделяет общество, и перечисляет исследования, которые противоречат этому. «То, что есть доказательства, просто не поддерживает идею о том, что социальные медиа [являются] недвусмысленным двигателем поляризации, которую многие утверждают», — пишет он.
Один вопрос: а как насчет собственных исследований Facebook? В прошлом году произошел ряд утечек информации, свидетельствующих о тревожных результатах внутренних исследований. Один проект в 2016 году, изучая самые загруженные немецкие политические группы, обнаружил, что 64% случаев, когда пользователи присоединялись к «экстремистским» группам, были связаны с алгоритмами рекомендаций Facebook.
В 2020 году другое исследование показало, что 70% из 100 наиболее активных американских политических групп были «признаны не рекомендуемыми» из-за ненависти, дезинформации и других проблем. Некоторые были полны призывов к политическому насилию.
Бывший Facebook Facebook AI исследователь также утверждал, что его команда провела «исследование за исследованием», обнаружив, что алгоритмы Facebook подталкивают людей к экстремальным взглядам. «Со временем они заметно поляризовались», — сказал он в интервью MIT Technology Review.
Facebook пообещал предоставить сторонним исследователям доступ к своим данным. Он не обещал выпустить ни одного урока из своего собственного богоподобного взгляда на онлайн — жизнь пользователей.
Бизнес Facebook зависит от контроля над тем, что вы видите
Лента новостей Facebook, безусловно, является одной из величайших медиа — операций в истории. Из огромного перечня всего контента, который пользователи имеют право видеть, его алгоритмы присваивают каждому элементу оценку, представляющую его прогнозы о ваших вкусах, и ставят самые высокие баллы на первое место.
Сэр Ник прав, указывая, что этот первоначальный инвентарь выбирают пользователи Facebook. Мы решаем, с кем дружить, что любить, в какие группы вступать и на какие страницы подписываться. В наши дни многие пользователи осознают, что их поведение влияет на то, что им покажут алгоритмы Facebook.
Но ценность Facebook как компании также зависит от сохранения контроля над этим процессом. Алгоритмические рейтинги поддерживают интерес пользователей, увеличивая количество доступных рекламных площадей. Они также предоставляют непрерывные возможности для сбора большего количества данных, поскольку каждый ваш ответ учит компанию чему-то о ваших предпочтениях.
Новостная лента Facebook по умолчанию основана на популярности с 2009 года, что означает, что у нее было 11 лет, чтобы дать пользователям больше контроля и прозрачности. Есть причина, по которой он этого не сделал.
Является ли Facebook редактором или нет?
«Нет редактора, диктующего заголовок первой страницы, который миллионы людей будут читать на Facebook», — говорит сэр Ник. «Вместо этого существуют миллиарды первых страниц, каждая из которых персонализирована в соответствии с нашими индивидуальными вкусами и предпочтениями, и каждая отражает нашу уникальную сеть друзей, страниц и групп.»
Это, по его мнению, является частью «магии социальных медиа», которая делает их революционным вызовом власти старых информационных элит.
Однако facebook Facebook вскоре после этого подробно объясняет, как Facebook сокращает ранжирование «проблемного» контента, такого как новости, ранжированные ложными внешними проверяющими фактами, статьи, которые алгоритмы Facebook считают, вероятно, «кликбейтом», и сообщения со страниц и групп, которые неоднократно подвергались санкциям в прошлом.
Позже он рассказывает о попытке Facebook понизить рейтинг политического контента в новостных лентах по всему миру. Он описывает, как он прикрепляет «авторитетную информацию» о таких нестабильных темах, как Covid-19, выборы в США, изменение климата и расовая справедливость, к верхней части каналов людей. Он хочет делать это чаще в будущем, где видит «явную общественную выгоду».
Так является ли Facebook редактором или нет? Реальность может быть где — то посередине. Но хотя выбор контента с помощью математических формул-это не то же самое, что использование человеческих редакторов, это не совсем цифровая анархия, основанная на людях.
Руководители неоднократно убивали проекты безопасности
«Системы Facebook не предназначены для поощрения провокационного контента. На самом деле, ключевые части этих систем предназначены для того, чтобы делать прямо противоположное», — пишет сэр Ник.
В этом есть доля правды. В 2016-18 годах Facebook был встревожен, обнаружив, что его данные о том, что нравится пользователям, противоречат опросам и интервью, когда пользователи говорят, что им не нравится то, на что они нажимают, и чувствуют себя вынужденными действовать вопреки своим реальным желаниям. С тех пор Facebook провел серьезные реформы, которые сократили вовлеченность или лишили приоритетности популярный контент.
Однако, согласно сообщениям, Марк Цукерберг и другие руководители неоднократно убивали или ослабляли проекты, направленные на снижение поляризации и политического экстремизма:
- В 2019 году Цукерберг якобы убил новые правила о разжигании ненависти и подстрекательстве, которые «заморозили» процесс выявления экстремистских группировок на большую часть 2020 года
- В 2018 году менеджеры, как сообщается, приказали сотрудникам новостной ленты перейти «от общественного блага к индивидуальной ценности», позволив подстрекательскому контенту свободно распространяться, если он не нарушает правил
- Также в 2018 году Цукерберг, как говорят, смягчил план по снижению политической злобы из-за опасений партизанской реакции
- С 2017-2020 годов Facebook подталкивал пользователей к публичным и частным группам, несмотря на предупреждения о том, что он создает политическую бомбу замедленного действия
- В 2016-17 годах Facebook, как сообщается, отложил исследования, показывающие, что его рекомендательные системы стимулируют экстремистские группы.
Facebook-это не интернет
Сэр Ник часто говорит об освобождающей силе Интернета, смартфонов и социальных сетей. При этом он считает, что власть Facebook неотделима от этих технологий, что является необходимым следствием эпохальных социальных изменений.
«Даже если Facebook прекратит свое существование, социальные сети не будут – не могут быть – неосвоенными», — пишет он. «Человеческий импульс использовать Интернет для социальных связей глубок.» Позже он предупреждает, что эта «драматическая и историческая демократизация речи» неизбежно «бросит вызов существующим властным структурам».
В отличие от некоторых других аргументов сэра Ника, это винтажный пиар Facebook. Это отражает собственные слова Цукерберга в 2019 году, когда он обвинил критиков в том, что они находятся на неправильной стороне в конечном счете расширяющей возможности революции.
Тем не менее, поразительно, как много критиков Facebook являются огромными сторонниками цифровых технологий (например, сэр Тим Бернерс-Ли, который поднимает проблемы уже более десяти лет) или людей, которые используют их для добра (например, Мария Ресса, основатель филиппинского новостного сайта-расследования Rappler).
Правда заключается в том, что Facebook-это не интернет и не единственная возможная форма социальной сети. Никто не сомневается в силе онлайн-коммуникации: это не делает неизбежным сам Facebook.
Свежие комментарии