Компания также ограничивает использование специальной нейронной голосовой технологии из-за угроз дипфейков
Microsoft заявляет, что в рамках своего нового «стандарта ответственного ИИ» намерена держать «людей и их цели в центре решений по проектированию системы». По словам компании, принципы высокого уровня приведут к реальным изменениям в практике: некоторые функции будут изменены, а другие сняты с продажи.
Например, служба Microsoft Azure Face — это инструмент распознавания лиц, который используется такими компаниями, как Uber, как часть их процессов проверки личности. Теперь любая компания, которая хочет использовать функции распознавания лиц службы, должна будет активно подавать заявки на использование, в том числе те, которые уже встроили их в свои продукты, чтобы доказать, что они соответствуют этическим стандартам Microsoft в области искусственного интеллекта и что эти функции приносят пользу конечному пользователю и общества.
Даже те компании, которым предоставлен доступ, больше не смогут использовать некоторые из наиболее спорных функций Azure Face, заявляет Microsoft, и компания откажется от технология анализа, предназначенная для определения эмоциональных состояний и атрибутов, таких как пол или возраст.
«Мы сотрудничали с внутренними и внешними исследователями, чтобы понять ограничения и потенциальные преимущества этой технологии и найти компромиссы», — сказала Сара Берд, менеджер по продуктам Microsoft. «В частности, в случае классификации эмоций эти усилия подняли важные вопросы о конфиденциальности, отсутствии консенсуса по определению «эмоций» и невозможности обобщить связь между выражением лица и эмоциональным состоянием для различных вариантов использования».
Microsoft не отказывается полностью от распознавания эмоций — компания по-прежнему будет использовать его внутри компании для инструментов доступности, таких как Seeing AI, которые пытаются вербально описать мир для пользователей с проблемами зрения.
Точно так же компания ограничила использование собственной технологии нейронного голоса, которая позволяет создавать синтетические голоса, которые звучат почти идентично оригинальному источнику. «Легко представить, как его можно использовать, чтобы неправомерно выдавать себя за говорящих и обманывать слушателей», — сказала Наташа Крэмптон, главный ответственный за искусственный интеллект компании.
Ранее в этом году Microsoft начала ставить водяные знаки на свои синтетические голоса, включая незначительные, неслышимые колебания в выходном сигнале, что означало, что компания могла определить, когда запись была сделана с использованием ее технологии. «С развитием нейронной технологии TTS, которая делает синтетическую речь неотличимой от человеческого голоса, возникает риск вредоносных дипфейков», – сказал Циньин Ляо из Microsoft.
Свежие комментарии