Использование криминалистических данных для построения алгоритмов, которые могут “предсказать преступление” основывается исключительно на лицо человека должна быть остановлена, группа из более чем 1700 специалистов, искусственный интеллект предупредили исследователи.
Использование таких данных для прогностической деятельности “расисты” и воспроизводить несправедливости и “причинить реальный вред”, говорится в открытом письме.
Звонки поступили после утверждения документ из США, Гаррисберг университет должен быть опубликован, предлагая технологии, способной предсказывать, если кто-то собирался быть преступником. Документ, как ожидается, появится в книге издательства «Шпрингер», хотя немецкий издатель так сказал, он отклонил документ.
В технологии напоминает фантастику фильм доклад меньшинства, исследование утверждает, профилактики правонарушений технология может похвастаться 80pc точность и “никаких расовых предубеждений” путем выявления потенциальных правонарушителей чисто на фотографию лица.
Такая технология позволит увидеть лицо-признания искусственного интеллекта, просматривая тысячи фотографий преступников, содержащейся в базах данных правосудия, используя его для создания программы, который может судить, если кто-то может совершать преступления, основываясь лишь на картинке.
Спрингер был обращен настоятельный призыв аннулировать предложение публикации и объяснить свои критерии для приема на учебу. В открытом письме, который включал в университетах по всей Великобритании, включая Кембридж и Оксфорд, а также призвал всех издателей воздержаться от публикации подобных исследований в будущем.
Я подписал письмо вместе с 700 исследователей, экспертов и практиков, призывая @SpringerNature отменить предстоящая публикация, которая утверждает, что определить или предсказать “преступность” с использованием биометрических и/или уголовно-правовых данных.протокол HTTPS://Т.сотрудничество/xfLDNYHteD
— Mathana (@StenderWorld) 23 Июня 2020 Года
“Давайте быть ясно: нет никакого способа, чтобы разработать систему, которая может предсказать или определить ‘преступности’ — это не расовая дискриминация — потому что категории ‘преступность’ не является расово предвзятой”, — говорится в письме, призывают к отказу от такой технологии.
Однако, Спрингер настаивает на том, что он не намерен публиковать исследование из Harrisburg.
“Документ был представлен на предстоящей конференции, для которой Спрингер планировал опубликовать материалы в сборнике серии сделок по вычислительной техники и вычислительного интеллекта”, — отметил издатель.
“После тщательного рассмотрения редакция документа была отклонена, и поэтому не будет нами опубликована.”
‘Дискредитировал псевдонауки’
Группы утверждали, что исследование было основано на предположении о том, что данные аресты и приговоры “может служить надежным, нейтральные признаки преступной деятельности”. В письме указано, что данные были “далеко не нейтральных”.
“Эти данные отражают, по данным полиции выбрать для ареста, как судьи выбирают правила, и что люди получают больше и более мягкие приговоры,” он заявил.
“Бесчисленные исследования показали, что люди цвета относятся более жестко, чем на аналогичных белых людей на всех этапах правовой системы, что приводит к серьезным искажениям в данных”.
Эксперты предупреждали, что также является неэтичной, такие технологии могут быть неточными. Они обвинили исследователей вникая в наследие “давно дискредитировали псевдонаук, таких как физиогномика и френология”.
Френология-это наука о человеческих черепов, и физиогномики изучение лица, начиная с Древней Греции и популярной в Викторианскую эпоху, лица и черепа может выявить у человека интеллект или личность.
Были среди подписантов представители технологических компаний, включая Twitter, Facebook, DeepMind, нашивки и Google.
Отменить #TechToPrisonPipeline — Коалиция за критические технологии — средний
Вы не можете предсказать преступности, основанного на биометрических данных, период. Это ошибка категория; это развенчание является 💯 https://t.co/ShXdtOSlP3
— Питер Бир (@peterbihr) 23 июня 2020 года
Группы сказал, что был “высокий спрос” в правоохранительных органах для таких исследований, что “облегчает исторического насилия и страха производит в рамках так называемых прогнозирования преступности”.
“Тираж этой работы по таким крупным издателем, как Спрингер будет представлять собой значительный шаг на пути легитимации и применение многократно развенчаны, социально вредное исследование в реальном мире”, — говорится в письме.
Высоко прогнозированием преступности
Авторы исследования Харрисберг, под названием “Глубокая нейросетевой модели для прогнозирования преступности с помощью обработки изображения”, утверждал, что оно было призвано помочь правоохранительным органам предотвращать преступления.
Профессор Гаррисберг Roozbeh Sadeghian сказал, что методы машинного обучения могут превзойти людей на самые разнообразные задачи, связанные с распознавания лиц и распознавания эмоций”.
“Это исследование показывает, насколько сильны эти инструменты, показывая, что они могут извлекать минуту особенности изображения, которые с большой точностью предсказать уголовщина”, — сказал он в теперь удален пресс-релиз.
Среди авторов исследования аспирант и полиция Нью-Йорка “ветеран” Джонатан Корн, кто считает, что преступность-прежнему общины “даже с текущими достижениями в полиции”.
“Разработка машины, которые способны выполнять когнитивные задачи, такие как выявление преступности, лица из их лицевые изображения, позволит существенным преимуществом для правоохранительных органов и других спецслужб, чтобы не допустить совершения преступлений в их отведенных местах”, — сказал он.
Гаррисберг университет не ответил на просьбу прокомментировать ситуацию на момент написания.
Свежие комментарии