Поисковая система обновляет «избранные фрагменты», чтобы уменьшить количество часто допущенных комичных ошибок
«Мы обучили наши системы лучше обнаруживать такого рода ложные предпосылки», — сказал в своем блоге глава отдела поиска Google. Фотография: Чарльз Платио/Reuters
Компания Google объявила, что перестанет давать быстрые ответы на глупые вопросы, поскольку стремится улучшить службу «избранных фрагментов» своей поисковой системы.
Это означает, что пользователи должны видеть меньше ответов. на такие вопросы, как «Когда Снупи убил Авраама Линкольна?», на что служба когда-то весело отвечала «1865» — правильная дата, но очень неправильный убийца.
«Очевидно, что это не самый удобный способ отображения этого результата», — сказал руководитель отдела поиска компании Панду Наяк в сообщении в блоге, объявляющем об изменениях. «Мы натренировали наши системы, чтобы лучше обнаруживать такого рода ложные предпосылки, которые не очень распространены, но бывают случаи, когда показ избранного фрагмента бесполезен. Благодаря этому обновлению мы сократили количество срабатываний избранных фрагментов в этих случаях на 40 %».
Фрагменты кода, которые иногда появляются в ответ на прямые вопросы, заданные Google Search, долгое время были краеугольным камнем стратегии компании в области искусственного интеллекта. Эта же технология используется в интеллектуальных динамиках и голосовых помощниках, а также позволяет поисковой системе удовлетворять поисковые запросы без перехода посетителей на другие веб-сайты.
Подпишитесь на первую версию
Бесплатный ежедневный информационный бюллетень
Арчи Бланд и Нимо Омер расскажут вам о главных новостях и о том, что они означают, бесплатно каждое утро в будний день
Примечание о конфиденциальности: Информационные бюллетени могут содержать информацию о благотворительных организациях, интернет-рекламе и контенте, финансируемом сторонними организациями. Для получения дополнительной информации см. нашу Политику конфиденциальности. Мы используем Google reCaptcha для защиты нашего веб-сайта, и применяются Политика конфиденциальности и Условия использования Google.
Но фрагменты, которые автоматически генерируются из содержимого веб-сайтов, также долгое время были занозой в боку Google. В 2017 году компанию обвинили в распространении «фейковых новостей» после того, как фрагмент ответа на вопрос «Планирует ли Обама переворот?» привел к тому, что ее голосовой помощник радостно сообщил пользователям: «Обама на самом деле может планировать коммунистический переворот». état в конце своего срока в 2016 году», после того, как нашла информацию на сайте конспирологии.
Другие ошибки были более комичными. Компания игриво сообщала пользователям, что лестница была изобретена в 1946 году (после прочтения веб-сайта, на котором к этой дате приписывалось конкретное американское правило безопасности), или неосознанно повторяла шутку из Монти Пайтона, когда ее спрашивали: «Почему пожарные машины красные?»
< p class="dcr-xry7m2">Стремясь устранить основную причину таких ошибок, Google также выпускает новые предупреждения для тех случаев, когда поисковый запрос попадает в «пустые данные» — вопрос, на который хороший ответ может просто не существует.
«Похоже, что по этому запросу не так много отличных результатов», — предупреждает сайт пользователей, которые нажимают такой запрос.
«Это не означает, что полезная информация недоступна или что тот или иной результат имеет низкое качество», — говорит Наяк. «Эти уведомления предоставляют контекст обо всем наборе результатов на странице, и вы всегда можете увидеть результаты для своего запроса, даже если присутствует рекомендация».
Свежие комментарии