Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. Российские ученые ускоряют работу ИИ с длинными текстами

Технологии

Российские ученые ускоряют работу ИИ с длинными текстами

МОСКВА, 16 августа. Российские ученые из лаборатории T-Bank AI Research разработали нейронную сеть ReBased для ускоренной обработки длинных текстов, сообщает компания.
Открытие основано на новой архитектуре для языковых моделей под названием ReBased. В глубоком обучении архитектура — это общий план или структура, на которой строится нейронная сеть. Она определяет, какие типы слоев будут использоваться (например, сверточные, рекуррентные или полностью связанные) и как эти слои будут связаны друг с другом. Хорошо продуманная архитектура позволяет нейронной сети лучше решать определенные задачи, такие как распознавание изображений или понимание текста. Выбор правильной архитектуры важен для эффективности и точности модели, говорится в отчете.

Проанализировав представленную учеными Стэнфорда в декабре 2023 года архитектуру Based, российские ученые оптимизировали механизм извлечения информации из текста, добавив новые обучаемые параметры, отвечающие за оптимальный поиск связей между частями текста. Это улучшает процесс его обработки и дает более точные ответы.

Ученые также упростили алгоритм извлечения текстовой информации, что привело к росту производительности, улучшению качества работы с длинными текстами и улучшению контекстного обучения. В среднем понимание взаимосвязей в тексте в новой архитектуре улучшилось не менее чем на 10%, отметили эксперты.
ReBased позволяет сократить затраты на использование искусственного интеллекта для специализированных задач, имеющих определенную область применения и требующих учета его особенностей. Например, в медицине такой задачей можно считать классификацию текстов на основе симптомов и диагнозов.
Новая архитектура, предложенная учеными, позволяет приблизить качество линейных моделей к трансформерам. Модели на основе ReBased могут генерировать тексты с меньшими требованиями к ресурсам практически без потери качества.
Ученые провели эксперименты на наборе данных MQAR (Multi-Query Associative Recall), который позволяет определить способность модели к контекстному обучению, а именно ассоциативному запоминанию (запоминанию не связанных между собой пар объектов), например: лицо человека — его имя.

«Примечательно, что параллельно с выходом нашей статьи группа исследователей из Стэнфорда выпустила исследование на ту же тему, но с другим подходом к решению. Сейчас это одно из самых интересных направлений исследований в области NLP во всем мире: трансформаторы слишком медленные, но линейные модели уступают им по качеству. И мы, и ученые из Стэнфорда занимаемся поиском оптимальных архитектур. Мы ценим их вклад в развитие технологий и рады возможности участвовать в научном диалоге такого уровня», — цитирует исследователя в области обработки естественного языка в T-Bank AI Research Ярослава Аксенова.

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Новости По Дате

Август 2024
Пн Вт Ср Чт Пт Сб Вс
 1234
567891011
12131415161718
19202122232425
262728293031  

Вам может быть интересно:

Спорт

Zen Чемпионка Европы по фигурному катанию Алена Косторная заявила изданию Sport, что пропустит сразу два соревновательных сезона «для решения личных проблем». Что скрывается за...

Общество

ZenДОНЕЦК, 3 ноября. Число раненых в результате атаки украинского беспилотника на станцию ​​Никитовка в Горловке в ДНР возросло до двух человек, сообщил мэр города...

Бизнес

В третьем квартале 2024 года более 70% особо критических киберинцидентов были связаны с компрометацией учетных записей сотрудников. По данным центра противодействия кибератакам Solar JSOC...

Спорт

Дзен Ровно 95 лет назад родился советский вратарь Лев Яшин. В 1963 году он стал обладателем главной индивидуальной награды в мировом футболе — «Золотого...