Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. Google отказывается восстанавливать учетную запись мужчины после того, как он ..

Технологии

Google отказывается восстанавливать учетную запись мужчины после того, как он сделал медицинские снимки паха сына

Эксперты говорят, что дело подчеркивает опасность автоматического обнаружения изображений сексуального насилия над детьми

Технологические компании, такие как Google, имеют доступ к огромное количество данных, но для них нет контекста, говорит технолог ACLU. Фотография: Авишек Дас/Sopa Images/Rex/Shutterstock

Google отказалась восстановить учетную запись мужчины после того, как она ошибочно пометила сделанные им медицинские снимки паха своего сына как материал о сексуальном насилии над детьми (CSAM), впервые сообщила New York Times. Эксперты говорят, что попытка применить технологическое решение социальной проблемы неизбежно приведет к ловушке.

Эксперты давно предупреждают об ограничениях автоматизированных систем обнаружения изображений сексуального насилия над детьми, особенно в связи с тем, что компании сталкиваются с давлением со стороны регулирующих органов и общественности, требующих помочь в борьбе с существованием материалов о сексуальных домогательствах.

«Эти компании имеют доступ к чрезвычайно инвазивным объемам данных о жизни людей. И все же они не имеют представления о том, какова на самом деле жизнь людей», — сказал Дэниел Кан Гиллмор, старший технолог ACLU. «Существует множество вещей, в которых просто факт вашей жизни не так понятен для этих информационных гигантов». Он добавил, что использование этих систем технологическими компаниями, которые «действуют в качестве доверенных лиц» для правоохранительных органов, подвергает людей риску быть «захваченными» «властью государства».

Мужчина, которого New York Times идентифицировала только как Марка, сфотографировал пах своего сына, чтобы отправить его врачу, после того как понял, что он воспален. Врач использовал это изображение, чтобы поставить диагноз сыну Марка и выписать антибиотики. Когда фотографии были автоматически загружены в облако, система Google идентифицировала их как CSAM. Двумя днями позже Gmail Марка и другие учетные записи Google, включая Google Fi, который предоставляет его телефонную услугу, были отключены из-за «вредоносного контента», который является «серьезным нарушением политики компании и может быть незаконным», сообщила Times со ссылкой на сообщение на его телефоне. Позже он узнал, что Google пометил другое видео, которое было у него на телефоне, и что полицейское управление Сан-Франциско возбудило в отношении него расследование.

С Марка сняли все обвинения, но Google заявил, что останется при своем решении.

«Мы следуем законодательству США в определении того, что представляет собой CSAM, и используем комбинацию технологии сопоставления хэшей и искусственного интеллекта, чтобы идентифицировать его и удалить с наших платформ», — сказала Криста Малдун, представитель Google.

Малдун добавил, что сотрудники Google, которые проверяют CSAM, были обучены медицинскими экспертами выявлять сыпь или другие проблемы. Сами они, однако, не были медицинскими экспертами, и с медицинскими экспертами не консультировались при рассмотрении каждого случая, сказала она.

Насколько конфиденциально ваше приложение для отслеживания месячных? Не очень, как показывает исследование. Подробнее

По словам Гиллмора, это лишь один из способов причинения вреда этими системами. Например, чтобы устранить любые ограничения, которые алгоритмы могут иметь при различении изображений сексуального насилия и медицинских изображений, компании часто привлекают человека. Но эти люди сами по себе ограничены в своем опыте, и для получения надлежащего контекста для каждого случая требуется дополнительный доступ к пользовательским данным. Гиллмор сказал, что это гораздо более навязчивый процесс, который все еще может быть неэффективным методом обнаружения CSAM.

«Эти системы могут создавать реальные проблемы для людей», — сказал он. «И дело не только в том, что я не думаю, что эти системы могут поймать каждый случай жестокого обращения с детьми, дело в том, что они имеют действительно ужасные последствия с точки зрения ложных срабатываний для людей. Жизнь людей может сильно измениться из-за машин, а люди, вовлеченные в процесс, просто принимают плохое решение, потому что у них нет причин пытаться это исправить».

Gillmor утверждал, что технология не является решением этой проблемы. На самом деле, по его словам, это может создать много новых проблем, в том числе создание надежной системы наблюдения, которая может нанести несоразмерный вред тем, кто находится на обочине.

«Есть мечта о своего рода техно-решения, [где люди говорят]: «О, ну, вы знаете, есть приложение для меня, чтобы найти дешевый обед, почему не может быть приложение для поиска решения сложной социальной проблемы, такой как детская сексуальная насилие?», — сказал он. «Ну, вы знаете, они могут быть не решены с помощью тех же технологий или набора навыков».

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Новости По Дате

Август 2022
Пн Вт Ср Чт Пт Сб Вс
1234567
891011121314
15161718192021
22232425262728
293031  

Вам может быть интересно:

Политика

Арестович: межконтинентальная баллистическая ракета поразила Южмаш Алексей Арестович. Фото: кадр из видео. Бывший советник офиса президента Украины Алексей Арестович* (включен в список террористов и...

Технологии

ZenМОСКВА, 6 декабря Академик Евгений Велихов сыграл огромную, признанную всем миром, роль в развитии работ по управляемому термоядерному синтезу, заявил президент Национального исследовательского центра...

Технологии

Россияне смогут увидеть сотни вспышек на пике потока в ночь на 14 декабря Фото: 7aktuell.de Daniel Jüptner/www.imago-images.de/Global Look Press Во время пика метеорного потока...

Культура

ZenМОСКВА, 8 декабряПрезидент России Владимир Путин наградил актера Сергея Маковецкого орденом «За заслуги в области культуры и искусства», соответствующий указ размещен на сайте официального...