Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. Google отказывается восстанавливать учетную запись мужчины после того, как он ..

Технологии

Google отказывается восстанавливать учетную запись мужчины после того, как он сделал медицинские снимки паха сына

Эксперты говорят, что дело подчеркивает опасность автоматического обнаружения изображений сексуального насилия над детьми

Технологические компании, такие как Google, имеют доступ к огромное количество данных, но для них нет контекста, говорит технолог ACLU. Фотография: Авишек Дас/Sopa Images/Rex/Shutterstock

Google отказалась восстановить учетную запись мужчины после того, как она ошибочно пометила сделанные им медицинские снимки паха своего сына как материал о сексуальном насилии над детьми (CSAM), впервые сообщила New York Times. Эксперты говорят, что попытка применить технологическое решение социальной проблемы неизбежно приведет к ловушке.

Эксперты давно предупреждают об ограничениях автоматизированных систем обнаружения изображений сексуального насилия над детьми, особенно в связи с тем, что компании сталкиваются с давлением со стороны регулирующих органов и общественности, требующих помочь в борьбе с существованием материалов о сексуальных домогательствах.

«Эти компании имеют доступ к чрезвычайно инвазивным объемам данных о жизни людей. И все же они не имеют представления о том, какова на самом деле жизнь людей», — сказал Дэниел Кан Гиллмор, старший технолог ACLU. «Существует множество вещей, в которых просто факт вашей жизни не так понятен для этих информационных гигантов». Он добавил, что использование этих систем технологическими компаниями, которые «действуют в качестве доверенных лиц» для правоохранительных органов, подвергает людей риску быть «захваченными» «властью государства».

Мужчина, которого New York Times идентифицировала только как Марка, сфотографировал пах своего сына, чтобы отправить его врачу, после того как понял, что он воспален. Врач использовал это изображение, чтобы поставить диагноз сыну Марка и выписать антибиотики. Когда фотографии были автоматически загружены в облако, система Google идентифицировала их как CSAM. Двумя днями позже Gmail Марка и другие учетные записи Google, включая Google Fi, который предоставляет его телефонную услугу, были отключены из-за «вредоносного контента», который является «серьезным нарушением политики компании и может быть незаконным», сообщила Times со ссылкой на сообщение на его телефоне. Позже он узнал, что Google пометил другое видео, которое было у него на телефоне, и что полицейское управление Сан-Франциско возбудило в отношении него расследование.

С Марка сняли все обвинения, но Google заявил, что останется при своем решении.

«Мы следуем законодательству США в определении того, что представляет собой CSAM, и используем комбинацию технологии сопоставления хэшей и искусственного интеллекта, чтобы идентифицировать его и удалить с наших платформ», — сказала Криста Малдун, представитель Google.

Малдун добавил, что сотрудники Google, которые проверяют CSAM, были обучены медицинскими экспертами выявлять сыпь или другие проблемы. Сами они, однако, не были медицинскими экспертами, и с медицинскими экспертами не консультировались при рассмотрении каждого случая, сказала она.

Насколько конфиденциально ваше приложение для отслеживания месячных? Не очень, как показывает исследование. Подробнее

По словам Гиллмора, это лишь один из способов причинения вреда этими системами. Например, чтобы устранить любые ограничения, которые алгоритмы могут иметь при различении изображений сексуального насилия и медицинских изображений, компании часто привлекают человека. Но эти люди сами по себе ограничены в своем опыте, и для получения надлежащего контекста для каждого случая требуется дополнительный доступ к пользовательским данным. Гиллмор сказал, что это гораздо более навязчивый процесс, который все еще может быть неэффективным методом обнаружения CSAM.

«Эти системы могут создавать реальные проблемы для людей», — сказал он. «И дело не только в том, что я не думаю, что эти системы могут поймать каждый случай жестокого обращения с детьми, дело в том, что они имеют действительно ужасные последствия с точки зрения ложных срабатываний для людей. Жизнь людей может сильно измениться из-за машин, а люди, вовлеченные в процесс, просто принимают плохое решение, потому что у них нет причин пытаться это исправить».

Gillmor утверждал, что технология не является решением этой проблемы. На самом деле, по его словам, это может создать много новых проблем, в том числе создание надежной системы наблюдения, которая может нанести несоразмерный вред тем, кто находится на обочине.

«Есть мечта о своего рода техно-решения, [где люди говорят]: «О, ну, вы знаете, есть приложение для меня, чтобы найти дешевый обед, почему не может быть приложение для поиска решения сложной социальной проблемы, такой как детская сексуальная насилие?», — сказал он. «Ну, вы знаете, они могут быть не решены с помощью тех же технологий или набора навыков».

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Новости По Дате

Август 2022
Пн Вт Ср Чт Пт Сб Вс
1234567
891011121314
15161718192021
22232425262728
293031  

Вам может быть интересно:

Спорт

Zen Чемпионка Европы по фигурному катанию Алена Косторная заявила изданию Sport, что пропустит сразу два соревновательных сезона «для решения личных проблем». Что скрывается за...

Общество

ZenДОНЕЦК, 3 ноября. Число раненых в результате атаки украинского беспилотника на станцию ​​Никитовка в Горловке в ДНР возросло до двух человек, сообщил мэр города...

Бизнес

В третьем квартале 2024 года более 70% особо критических киберинцидентов были связаны с компрометацией учетных записей сотрудников. По данным центра противодействия кибератакам Solar JSOC...

Культура

ZenМОСКВА, 28 октября Актёр кино, сериалов и дубляжа Михаил Демчук скончался в возрасте 40 лет, сообщает сайт «Кино-Театр.ру».Согласно информации в профиле, актёр скончался 16...