Юсуф Мехди, корпоративный вице-президент Microsoft по поиску, провел заполненную ошибками демонстрацию нового искусственного интеллекта Bing. функциональность поиска Фото: AP Photo/Stephen Brashear
Ошибки лишили блеска новую войну поисковых систем, в которую оба технологических гиганта вкладывают миллиарды долларов. Microsoft и Google стремились применить алгоритмы чат-ботов к своим поисковым продуктам в Интернете.
По словам Майка Вулдриджа, профессора компьютерных наук Оксфордского университета, их программы ChatGPT и Bard представляют собой формы так называемого «генеративного» ИИ, работа которого сильно отличается от классической поисковой системы.
«Старый у модного поиска есть огромный список веб-сайтов, которые отвечают на вопросы. Когда вы вводите поисковый запрос, скажем, «билеты на U2», они просматривают свою базу данных в поисках контента, в котором перечислены билеты на U2», — говорит он.
«То, что делают Bard и ChatGPT, совершенно другое. Они делают причудливую версию того, что делает ваш телефон, когда пытается автозаполнить сообщение».
Чтобы обеспечить человеческий «голос», ChatGPT был обучен на всей англоязычной версии Википедии. , два огромных тома опубликованных книг и тысячи гигабайт интернет-страниц. Этот огромный набор обучающих данных позволил чат-боту очень хорошо предсказывать, какие слова обычно следуют друг за другом в предложении.
Новая поисковая система Bing на базе ChatGPT от Microsoft, доступная в настоящее время в рамках публичной пробной версии с ограниченным масштабом, использует эту модель словесных ассоциаций и применяет ее ко всему Интернету, используя существующее программное обеспечение поисковой системы для получения ответов. Эти ответы представлены в отдельном поле для ответов — мини-статье, предназначенной для обобщения самой актуальной информации.
Хотя их вывод может показаться читателям убедительным, у этих чат-ботов мало возможностей отделить факты от вымысла при извержении информации в Интернете. Кроме того, боты могут придумывать контент, чтобы заполнить любые пробелы в знаниях. Эксперты в области искусственного интеллекта называют это галлюцинациями.
Один пример, приведенный группой исследователей из Наньянского технологического университета в Сингапуре, взят из собственной демонстрации Microsoft. Поиск Bing на основе ChatGPT. Мехди, исполнительный директор Microsoft, использовал новое программное обеспечение на сцене, чтобы обобщить квартальный финансовый отчет. Тщательный анализ показал, что цифры в отчете не соответствуют оригиналу.
«Проще говоря, популярные модели генеративного ИИ, такие как ChatGPT, выбирают слова для генерации из фиксированного словаря, а не просто копируют и вставляют факты из источника», — говорят исследователи.
Неверный ответ Барда относительно космического телескопа Джеймса Уэбба стоил Google 120 миллиардов долларов. Фото: NASA TV/AFP через Getty Images
Более того, сами поисковые системы далеко не безошибочны. Каждый читатель видел, как они возвращают сомнительные ответы на поисковые запросы или ссылки на нерелевантные веб-сайты. Тем не менее, в ходе последней эволюции поисковых технологий информация, содержащаяся в этих бесполезных ссылках, теперь объявляется авторитетным ответом на вопросы, задаваемые такими же невежественными людьми.
Нашептывается старая пословица о том, что «мусор на входе, мусор на выходе». о поисковых системах и технологиях искусственного интеллекта седобородыми из технической индустрии.
Плохо обученные алгоритмы будут давать бессмысленные ответы. Но поскольку обе технологические компании намеренно не раскрывают информацию о том, как они создавали свои инструменты, чтобы защитить свои конкурентные преимущества, трудно полностью понять, как они добиваются результатов, которые звучат так убедительно, но при этом совершенно ошибочны.
< p>Если причина проблемы находится где-то между частью чат-бота и частью поисковой системы, тогда возникает вопрос: что не так со связью между ними и как пользователи могут узнать, когда могут возникнуть проблемы?р><р>«Мы не знаем, как они сочетают эти две вещи», — говорит Вулдридж из Оксфордского университета. «Тот факт, что источники данных, используемые для обучения этих моделей, действительно скрыты, действительно проблематичен».
Растущей проблемой в компьютерных науках за последнее десятилетие или более стала «проблема черного ящика». Потребителям рекомендуется использовать систему, работа которой полностью непрозрачна, а затем безоговорочно доверять ее результатам.
Хотя это помогло чат-ботам давать уверенные звучащие ответы, это создает реальные проблемы для людей, пытающихся быстро отличить факты, сгенерированные ИИ, от вымысла. Вулдридж добавляет: «Сложность для нас заключается в том, что мы делаем ошибки правдоподобным образом».
Стив Хсу, американский профессор физики и предприниматель, говорит, что языковые алгоритмы, используемые Bing и Google, обучены « правдоподобное завершение предложений и не умеют точно обобщать сложную информацию».
Microsoft заявляет, что ее сомнительная демонстрация Bing с ChatGPT проводилась с использованием предварительной версии. Представитель говорит: «Только за последнюю неделю тысячи пользователей взаимодействовали с нашим продуктом и нашли значительную ценность для пользователей, поделившись с нами своими отзывами, что позволило модели уже учиться и вносить множество улучшений.
“ Мы понимаем, что еще многое предстоит сделать, и ожидаем, что система может совершать ошибки в течение этого периода предварительного просмотра».
Эти ошибки официально являются ошибками, допущенными проектом, который все еще находится в стадии разработки. Однако до тех пор, пока Microsoft и Google не откроют свои волшебные черные ящики, риск распространения лжи остается высоким.
Свежие комментарии