Компании, стремящиеся сократить расходы и удовлетворить потребности клиентов в молниеносном обслуживании, все чаще заменяют людей машинами во всех сферах деятельности. цепочки поставок.
Но регулирующие органы обеспокоены тем, что использование искусственного интеллекта может свести на нет десятилетия работы, направленной на обеспечение справедливого отношения к потребителям независимо от их расы или пола.
Финансовые учреждения стали последней мишенью более широкой борьбы с дискриминацией в области искусственного интеллекта после того, как Банк Англии начал кампанию, направленную на то, чтобы новые технологии не ограничивали кредитование этнических меньшинств.
Заместитель управляющего банка Дэвид В октябре 2021 года Рамсден провел отраслевой круглый стол с Mastercard, Visa, Capital One, Starling Bank, Experian и другими, чтобы обсудить этику искусственного интеллекта. Рамсден предупредил участников об устранении «человеческого суждения и надзора». в решениях.
Теперь регулятор конкуренции готовится опубликовать собственные выводы о том, как алгоритмы используются на более широких цифровых рынках.
Его усилия были предприняты после ряда громких скандалов, подчеркивающих расовую предвзятость в алгоритмах. Amazon подверглась критике за то, что исключила районы с преобладанием чернокожих при расширении услуг Prime в США. Twitter был вынужден отказаться от алгоритма обрезки изображений после того, как пользователи обнаружили, что приоритет отдается белым лицам. Uber предстал перед судом в Великобритании после того, как сотрудник заявил, что его учетная запись была удалена, потому что его программное обеспечение для распознавания лиц не могло идентифицировать его из-за его расы, и слушание должно состояться в конце месяца.
Управление по конкуренции и рынкам (CMA) тщательно изучает алгоритмы технологических гигантов, чтобы убедиться, что они не несправедливо нацеливаются на определенные группы. Он изучает эту тему более года и готовится опубликовать новые результаты в ближайшие месяцы.
CMA наняла специалистов по данным и инженеров в новое подразделение для поддержки своих усилий. Эти аналитики отследили алгоритмы и наборы данных, которые цифровые компании используют для нацеливания людей на определенные услуги и продукты. Подразделение является частью нового подразделения цифровых рынков (DMU), созданного для регулирования таких компаний, как Google, Facebook, Amazon и Apple.
CMA разработало новые методы для построения дел о конкуренции на основе алгоритмов и вскоре поделится своими выводами с другими агентствами. Отдельно он опубликует статью о вреде и пользе искусственного интеллекта и о том, как его следует регулировать. Регуляторные органы могут принять прямые меры против алгоритмов технологических гигантов, когда через парламент будет принят новый закон, устанавливающий DMU в соответствии с законом.
Представитель CMA говорит: «Большая часть жизни людей проходит в Интернете, и многие из них деятельность и лежащие в ее основе рынки не могли бы существовать без алгоритмов. Хотя они позволили повысить эффективность и результативность, они могут негативно повлиять на потребителей различными способами.
«Вот почему CMA разрабатывает понимание этой области для решения поднятых проблем».
История предупреждений
CMA впервые выпустила документ о том, как алгоритмы могут дискриминировать людей в январе 2021 года. было «многочисленные примеры» того, как алгоритмы могут незаконно дискриминировать людей. Было обнаружено, что технологии могут дискриминировать потребителей, ориентируя людей, живущих в определенном месте, или ориентируя рекламу на избранные группы.
Amazon оказалась в центре внимания газеты. CMA указала на исследование о расширении своего сервиса Prime в США в 2016 году. Исследование показало, что Amazon уделяет приоритетное внимание областям с высокой концентрацией членов Prime, когда расширяет бесплатную доставку в тот же день. Но эта политика исключала из обслуживания преимущественно черные кварталы.
В отчете CMA говорится: «Люди с защищенными характеристиками географически распределены неравномерно. В результате даже простая политика, предусматривающая региональное ценообразование или различные услуги, доступные в разных регионах, потенциально может привести к косвенной дискриминации"
CMA также предупредил, что онлайн-платформы иногда позволяют рекламодателям настраивать таргетинг на людей в соответствии с защищенными характеристиками. Исследование, опубликованное ProPublica в 2017 году, показало, что можно размещать рекламу недвижимости, исключающую людей с определенной «этнической принадлежностью». в Фейсбуке. Однако CMA указал, что Facebook изменил свои системы, чтобы ограничить возможность рекламодателей ориентироваться на определенные демографические данные.
Регуляторы также обнаружили, что алгоритмы показа рекламы Facebook могут быть искажены в зависимости от пола и расы. Реклама для женщин дороже, потому что это более конкурентный рынок, а это означает, что женщины могут получать меньше рекламных показов от малобюджетных рекламодателей. CMA сослался на исследование Северо-восточного университета в США, которое показало, что рекламные кампании с меньшим бюджетом в конечном итоге показывают меньше рекламы женщинам на Facebook.
В отчете CMA говорится: "Это может привести к тому, что рекламные кампании будут направлены на быть гендерно нейтральным — например, для объявлений о карьере в сфере STEM — показывать явно дискриминационным образом большему количеству мужчин, потому что это более рентабельно при максимальном количестве показов рекламы при заданном бюджете».
< р>Facebook работает над повышением справедливости своего искусственного интеллекта и требует от рекламодателей подтверждения того, что они понимают его политику, запрещающую дискриминационные действия.
Представитель Facebook говорит: «Мы выступаем против дискриминации в любой форме, и нам поручено изучать алгоритмическую справедливость». Недавно мы расширили ограничения на параметры таргетинга объявлений о работе, жилье и кредитах на Великобританию"
Алан Дэвис, партнер Pinsent Masons, говорит: «Все это касается защищенных характеристик и того, будут ли данные использоваться не по назначению в результате использования систем для эффективной персонализации продуктов или услуг или цен, предлагаемых конкретным потребителям.
"И это может быть дискриминация по признаку пола, сексуальной ориентации или расы. "В США есть много литературы о деятельности некоторых цифровых компаний в районах или районах, где проживает больше чернокожих, чем белых, и если вы находитесь в этом районе, вы получите преимущественное качество. обслуживания.
«Есть законы [чтобы остановить это], но обнаружить это будет сложно. Как регулирующие органы узнают и определят, преследует ли компания кого-либо, основываясь на том, живет ли он в определенной части южного Лондона или в определенном пригороде Бирмингема?"
В документе, опубликованном CMA в прошлом году, не дают прямого представления о проводимых в настоящее время расследованиях. Приведенные в нем примеры были во многом историческими. Скорее, он выдвинул на первый план возможность дискриминации на цифровых рынках и указывает, какой вид ущерба потребителям будут пытаться выявить исследователи в его новом подразделении.
Алгоритмы банков также подверглись тщательному анализу в работе CMA. Его исследователи обнаружили, что даже если люди частично участвуют в принятии решений о кредите, все еще существует потенциал для дискриминации. Поскольку потребители все чаще требуют одобрения ипотечных кредитов одним нажатием кнопки, банки и другие поставщики услуг будут стремиться к тому, чтобы их технологии не блокировали их полностью.
Свежие комментарии