Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. Российские ученые ускоряют работу ИИ с длинными текстами

Технологии

Российские ученые ускоряют работу ИИ с длинными текстами

МОСКВА, 16 августа. Российские ученые из лаборатории T-Bank AI Research разработали нейронную сеть ReBased для ускоренной обработки длинных текстов, сообщает компания.
Открытие основано на новой архитектуре для языковых моделей под названием ReBased. В глубоком обучении архитектура — это общий план или структура, на которой строится нейронная сеть. Она определяет, какие типы слоев будут использоваться (например, сверточные, рекуррентные или полностью связанные) и как эти слои будут связаны друг с другом. Хорошо продуманная архитектура позволяет нейронной сети лучше решать определенные задачи, такие как распознавание изображений или понимание текста. Выбор правильной архитектуры важен для эффективности и точности модели, говорится в отчете.

Проанализировав представленную учеными Стэнфорда в декабре 2023 года архитектуру Based, российские ученые оптимизировали механизм извлечения информации из текста, добавив новые обучаемые параметры, отвечающие за оптимальный поиск связей между частями текста. Это улучшает процесс его обработки и дает более точные ответы.

Ученые также упростили алгоритм извлечения текстовой информации, что привело к росту производительности, улучшению качества работы с длинными текстами и улучшению контекстного обучения. В среднем понимание взаимосвязей в тексте в новой архитектуре улучшилось не менее чем на 10%, отметили эксперты.
ReBased позволяет сократить затраты на использование искусственного интеллекта для специализированных задач, имеющих определенную область применения и требующих учета его особенностей. Например, в медицине такой задачей можно считать классификацию текстов на основе симптомов и диагнозов.
Новая архитектура, предложенная учеными, позволяет приблизить качество линейных моделей к трансформерам. Модели на основе ReBased могут генерировать тексты с меньшими требованиями к ресурсам практически без потери качества.
Ученые провели эксперименты на наборе данных MQAR (Multi-Query Associative Recall), который позволяет определить способность модели к контекстному обучению, а именно ассоциативному запоминанию (запоминанию не связанных между собой пар объектов), например: лицо человека — его имя.

«Примечательно, что параллельно с выходом нашей статьи группа исследователей из Стэнфорда выпустила исследование на ту же тему, но с другим подходом к решению. Сейчас это одно из самых интересных направлений исследований в области NLP во всем мире: трансформаторы слишком медленные, но линейные модели уступают им по качеству. И мы, и ученые из Стэнфорда занимаемся поиском оптимальных архитектур. Мы ценим их вклад в развитие технологий и рады возможности участвовать в научном диалоге такого уровня», — цитирует исследователя в области обработки естественного языка в T-Bank AI Research Ярослава Аксенова.

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Стоит Посмотреть

Новости По Дате

Август 2024
Пн Вт Ср Чт Пт Сб Вс
 1234
567891011
12131415161718
19202122232425
262728293031  

Вам может быть интересно:

Общество

Фото: pexels.com тестовый баннер под заглавное изображение В многоэтажном жилом доме в Волгограде, расположенном на улице Маршала Ерёменко, произошел мощный взрыв, который, по предварительным...

Бизнес

На прошлой неделе волатильность на внутреннем валютном рынке заметно снизилась. По итогам пятничных торгов курс американской валюты на внебиржевом рынке составил 80,85 руб./$, что...

Технологии

МОСКВА, 7 ноя. Новое устройство для безопасного управления электросетью с участием возобновляемых источников энергии создали ученые ТПУ. По их данным, разработка поможет почти вдвое...

Общество

Ваш браузер не поддерживает данный формат видео. МОСКВА, 9 ноя. В Тульской области задержали мужчину, подозреваемого в поджоге газа в жилом доме в Куркино,...