Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. Галлюцинации остаются: эксперт рассказал о слабых местах искусственного интеллекта

Технологии

Галлюцинации остаются: эксперт рассказал о слабых местах искусственного интеллекта

Почему искусственный интеллект ошибается: мнение специалиста

Почему искусственный интеллект до сих пор выдает «галлюцинации» – вызывающие ошибки? Когда чат-боты для расшифровки текста достигнут уровня специалиста машбюро? Как делиться биометрией и не стать потом жертвой мошенников? Об этих и других темах мы поговорили с руководителем группы исследований и разработки технологий машинного обучения Владиславом Тушкановым.

Почему искусственный интеллект ошибается: мнение специалиста

тестовый баннер под заглавное изображение

  Все мы в той или иной степени уже являемся пользователями больших языковых моделей или искусственного интеллекта. Он помогает многим писать тексты, собирая необходимую справочную информацию, переводить, расшифровывать аудиофайлы, рисовать картины и сочинять музыку. Однако иногда, полностью доверившись своему компьютерному помощнику, люди попадают впросак. Например,  получая вместо правильного ответа на вопрос сущую белиберду, или «галлюцинации».

 По словам эксперта, проблема «галлюцинаций» пока не имеет решения, поскольку изначально языковая модель создавалась для того, чтобы быть полезной человеку. Она не может ответить на неизвестный ей вопрос: «не знаю» или «отвечай сам», она должна «все знать». Поэтому модель и начинает иногда «выдумывать» несуществующие вещи, которые «берет» из своего багажа знаний. Иногда даже на простые вроде бы вопросы, к примеру: «Назови столицу России», она может ответить: «Санкт-Петербург». Это, по словам эксперта, происходит по причине того, что ИИ не думает и не обладает интеллектом, как бы ее этим качеством ни старалось наделять общество, ИИ ищет ответ на вопросы методом подбора, который иногда работает в его «голове» подобно рулетке. Так, если модель обучалась в том числе на исторических данных, относящихся к временам, когда столицей России был Санкт-Петербург, она в один прекрасный момент может выдать это название в совсем неуместном контексте. Эксперт говорит, что это проблема, которая пока не решена, но разработчики ИИ ищут способы ее преодоления. А пользователям чат-ботов эксперт посоветовал не доверять слепо языковой модели, а всегда проверять ее ответы.

  Все, кто пользуется чат-ботом для расшифровки голосовых файлов, знают, что порой они не отличаются отменным качеством. Например, ИИ не разбирает некоторых слов, даже когда по контексту они должны быть понятны, не делят текст на абзацы, я уже молчу про знаки препинания.

О том, есть ли варианты преодоления этих проблем, Влад Тушканов ответил следующее:

– Технологии на базе машинного обучения, включая распознавание и синтез речи, обработку изображений и видео и, конечно, генерацию текста на естественном языке, постоянно совершенствуются. С этой точки зрения особый интерес представляет, во-первых, мультимодальность, когда модели могут обрабатывать, например, текст и изображения одновременно в рамках единой модели, во-вторых, интеграция разных модальностей в едином приложении. Например, у продвинутых чат-ботов можно попросить сначала расшифровать звуковой файл, а затем отредактировать расшифровку так, чтобы она звучала, к примеру, как комментарий из статьи в СМИ.

 Все эксперты по искусственному интеллекту предупреждают пользователей всевозможных языковых моделей о том, что вся переписка человека с ИИ может стать достоянием создателей чат-ботов. Это не значит, что у всех у них стоит цель – подсмотреть о чем вы пишете, просто  модели настроены таким образом, что используют ваши «перлы» в качестве обучающих выборок. Однако, если речь идет об информации, размещенной на каком-нибудь сайте, там для их владельцев есть способы запретить как минимум добросовестным сборщикам данных (нейросетям) доступ к материалам. Для этого можно использовать специальные мета-теги или директивы в файле robots.txt или применять капчу – специальную проверку того факта, что доступ к тексту осуществляется именно человеком. 

  В обществе есть определенный уровень недоверия к технологиям ИИ в связи с активным сбором личной информации и потенциальной ее утечкой. Мы поинтересовались у нашего эксперта, есть ли алгоритм того, как сдать, к примеру, биометрию и быть потом на 100 процентов уверенным, что данными не воспользуются злоумышленники?

 По словам специалиста, вопрос защиты личных данных очень важен и остро стоял еще до бума искусственного интеллекта. Пользователям для защиты своих данных он порекомендовал следовать базовым правилам: использовать защитные решения, защищать свои аккаунты при помощи двухфакторной аутентификации и уникальных сложных паролей, использовать менеджеры паролей для их хранения и делиться конфиденциальными данными только с надежными крупными организациями. Кроме того, по его мнению, следует быть осторожным и проявлять осмотрительность при переходе по незнакомым ссылкам и при скачивании программ.

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Стоит Посмотреть

Новости По Дате

Март 2025
Пн Вт Ср Чт Пт Сб Вс
 12
3456789
10111213141516
17181920212223
24252627282930
31  

Вам может быть интересно:

Общество

ХАБАРОВСК, 6 мар. Преступная группа из шести человек с более чем 330 килограммами черной икры на сумму свыше 3,4 миллионов рублей задержана в Комсомольске-на-Амуре,...

Авто

Компания Chery начала активную подготовку к старту «живых» продаж рестайлинговой четырехдверки. Модель изменилась снаружи и внутри, технику же реформы не затронули. В Китае прием...

Политика

Полковник Уилкерсон: Киев может нарушить договоренности о прекращении огня Фото: pixabay.com Экс-глава аппарата госсекретаря Соединенных Штатов Америки Лоуренс Уилкерсон в эфире YouTube-канала Dialogue Works...

Технологии

Бывший агент ЦРУ утверждает о наличии странных доказательств существования в прошлом жизни на Красной планете Бывший агент ЦРУ утверждает о наличии у него «доказательств»,...