Новое исследование выявило слабые стороны чат-ботов: они вводят в заблуждение
Искусственно интеллектуальные чат-боты, которые стали очень популярны в последние годы, искажают и вводят в заблуждение, когда их спрашивают о текущих событиях, утверждает BBC. Большинство ответов ИИ выявили «значительные проблемы», когда исследователи попросили службы использовать новостные статьи вещателя в качестве источника
Исследование показало, что ведущие помощники ИИ создают искажения, фактические неточности и вводящий в заблуждение контент в ответ на вопросы о новостях и текущих событиях.
Более половины ответов, сгенерированных ИИ, предоставленных чат-ботами ChatGPT, Copilot, Gemini и Perplexity, были оценены как имеющие &ld;значительные проблемы&rd;, согласно исследованию BBC, сообщает The Guardian.
Ошибки включали утверждение, что Риши Сунак по-прежнему является премьер-министром Великобритании, а Никола Стерджен — первым министром Шотландии; искажение рекомендаций NHS по вейпингу; и принятие мнений и архивных материалов за текущие факты.
Исследователи попросили четыре инструмента ИИ ответить на 100 вопросов, используя статьи BBC в качестве источников. Затем ответы были оценены журналистами BBC, которые специализируются в соответствующих предметных областях.
Примерно пятая часть ответов содержала фактические ошибки в цифрах, датах или утверждениях; 13% цитат, предоставленных BBC, были изменены или отсутствовали в цитируемых статьях.стр> <стр>В ответ на вопрос о том, была ли осуждена неонатальная медсестра Люси Летби невиновной, чат-бот Gemini ответил: &ld;Каждый человек сам решает, считает ли он Люси Летби невиновной или виновной&rd;. Расследование показало, что ответ не предоставил контекста для ее осуждения за убийство и покушение на убийство.
В отчете, который опирался на достоверные источники BBC, также были отмечены другие искажения, в том числе:
Второй пилот ложно утверждал, что жертва изнасилования во Франции Жизель Пелико раскрыла преступления против нее, когда у нее начались провалы в памяти, хотя на самом деле она узнала о преступлениях, когда полиция показала ей видео, которые они конфисковали с устройств ее мужа.
ChatGPT утверждает, что Исмаил Хания был членом руководства ХАМАС спустя несколько месяцев после его убийства в Иране. Также было ложно заявлено, что бывший премьер-министр Риши Сунак и бывший шотландский лидер Стерджен все еще находятся у власти.
Perplexity неверно указал дату смерти телеведущего Майкла Мосли и неверно процитировал заявление семьи солиста One Direction Лиама Пейна после его смерти.
Выводы побудили главного редактора новостей BBC Дебору Тернесс предупредить, что «инструменты ИИ играют с огнем» и грозят подорвать «хрупкую веру общественности в факты».
В сообщении в блоге об исследовании Тернесс усомнилась в том, что ИИ готов «собирать и представлять новости, не искажая факты». Она также призвала компании ИИ работать с BBC, чтобы предоставлять более точные ответы, &ld;а не вносить хаос и путаницу&rd;.
Исследование было проведено после того, как Apple была вынуждена приостановить рассылку новостных оповещений под брендом BBC после того, как пользователям iPhone были отправлены несколько неточных резюме статей.
Ошибки Apple включали ложное сообщение пользователям о том, что Луиджи Манджоне, человек, обвиняемый в убийстве Брайана Томпсона, генерального директора страхового подразделения UnitedHealthcare, покончил с собой, сообщает The Guardian.
Исследования показывают широко распространенные неточности в текущих событиях среди популярных событий, связанных с инструментами ИИ.
В предисловии к исследованию, Питер Арчер, директор программы генеративного ИИ BBC, сказал: «Наше исследование может только пролить свет на эту проблему. Неизвестно, в какой степени оно подвержено ошибкам и искажает достоверный контент».
Арчер добавил: «Издателям, таким как BBC, необходимо следить за тем, используется ли их контент и как он используется, а компаниям, занимающимся ИИ, необходимо показывать, как (их) помощники обрабатывают новости и в какой степени они допускают ошибки и неточности».































Свежие комментарии