Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. Найдены недостатки в сотнях тестов по проверке безопасности ИИ

Технологии

Найдены недостатки в сотнях тестов по проверке безопасности ИИ

Проверки искусственного интеллекта на безопасность и эффективность оказались с прорехами

Эксперты находят недостатки в сотнях тестов, которые проверяют безопасность и эффективность ИИ. Ученые говорят, что почти все эти тесты имеют недостатки по крайней мере в одной области, которые могут “подорвать обоснованность полученных утверждений” насчет искусственного интеллекта.

Проверки искусственного интеллекта на безопасность и эффективность оказались с прорехами Фото: создано с помощью нейросети GigaChat

Специалисты обнаружили слабые места, некоторые из которых были серьезными, в сотнях тестов, используемых для проверки безопасности и эффективности новых моделей искусственного интеллекта, выпускаемых в мир, пишет The Guardian.

Ученые-компьютерщики из британского правительственного института безопасности искусственного интеллекта и эксперты из университетов, включая Стэнфорд, Беркли и Оксфорд, изучили более 440 критериев, которые обеспечивают важную систему безопасности. И они обнаружили недостатки, которые “подрывают обоснованность полученных утверждений”, что “почти все они имеют недостатки по крайней мере в одной области”, а итоговые оценки могут быть “неуместными или даже вводящими в заблуждение”.

По словам ведущего автора исследования Эндрю Бина, научного сотрудника Оксфордского интернет-института, многие тесты используются для оценки новейших моделей искусственного интеллекта, выпущенных крупными технологическими компаниями.

В отсутствие общенационального регулирования ИИ в Великобритании и США используются контрольные показатели для проверки безопасности новых ИИ, соответствия их интересам человека и достижения заявленных возможностей в области логического мышления, математики и кодирования, отмечает The Guardian.

Расследование тестов проводится на фоне растущей обеспокоенности по поводу безопасности и эффективности ИИ, которые активно внедряются конкурирующими технологическими компаниями. Некоторые из них недавно были вынуждены отменить или ужесточить ограничения на ИИ после того, как они привели к различным последствиям — от дискредитации репутации до самоубийств.

“Контрольные показатели лежат в основе почти всех заявлений о достижениях в области искусственного интеллекта, — отмечает Эндрю Бин. – Но без общих определений и надежных измерений становится трудно понять, действительно ли модели улучшаются или только кажется, что улучшаются”.

На этих выходных Google отозвал один из своих последних инструментов ИИ, Gemma, после того, как он выдвинул необоснованные обвинения о сексуальных отношениях сенатора США без согласия с сотрудником полиции штата, включая поддельные ссылки на новостные сюжеты. “Никогда не было такого обвинения, нет такого человека, и нет таких новых историй, — заявила Марша Блэкберн, сенатор-республиканец от штата Теннесси, в письме Сундару Пичаи, исполнительному директору Google. – Это не безобидная галлюцинация. Это акт клеветы, созданный и распространяемый с помощью ИИ-модели, принадлежащей Google. Общедоступный инструмент, который выдвигает ложные обвинения в уголовном преследовании действующего сенатора США, представляет собой катастрофический провал надзора и этической ответственности”.

Компания Google заявила, что ее модели Gemma были созданы для разработчиков и исследователей в области искусственного интеллекта, а не для получения фактической информации или для потребителей. Компания отозвала их со своей платформы AI Studio после того, как, по ее словам, “появились сообщения о попытках их использования не разработчиками”.

“Галлюцинации, когда модели просто выдумывают разные вещи, и подхалимство, когда модели говорят пользователям то, что они хотят услышать, – это проблемы для всей индустрии искусственного интеллекта, особенно для небольших открытых моделей, таких как Gemma”, – говорится в сообщении. “Мы по-прежнему стремимся свести к минимуму галлюцинации и постоянно совершенствуем все наши модели”.

На прошлой неделе популярный стартап чат-ботов запретил подросткам вступать в открытые дискуссии с помощью своих чат-ботов с искусственным интеллектом. Это последовало за серией скандалов, включая самоубийство 14-летнего подростка во Флориде после того, как он стал одержим чат-ботом на базе искусственного интеллекта, который, как утверждала его мать, заставил его покончить с собой. Судебный иск в США от семьи подростка утверждал, что чат-бот манипулировал им с целью причинения себе вреда и подталкивала его к убийству своих родителей.

В ходе исследования были изучены широко доступные критерии, но ведущие компании, занимающиеся ИИ, также имеют свои собственные внутренние критерии, которые не были рассмотрены, отмечает The Guardian.

В исследовании был сделан вывод о “острой необходимости в общих стандартах и передовой практике”.

Эндрю Бин признал, что “шокирующим” открытием стало то, что лишь незначительная часть (16%) тестов использовала оценки неопределенности или статистические тесты, чтобы показать, насколько вероятно, что тест будет точным. В других случаях, когда для оценки характеристик ИИ устанавливались критерии – например, его “безвредность”, – определение рассматриваемой концепции было спорным или неточно сформулированным, что делало тест менее полезным.

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Стоит Посмотреть

Новости По Дате

Ноябрь 2025
Пн Вт Ср Чт Пт Сб Вс
 12
3456789
10111213141516
17181920212223
24252627282930

Вам может быть интересно:

Общество

Фото: pexels.com тестовый баннер под заглавное изображение В многоэтажном жилом доме в Волгограде, расположенном на улице Маршала Ерёменко, произошел мощный взрыв, который, по предварительным...

Бизнес

На прошлой неделе волатильность на внутреннем валютном рынке заметно снизилась. По итогам пятничных торгов курс американской валюты на внебиржевом рынке составил 80,85 руб./$, что...

Технологии

МОСКВА, 7 ноя. Новое устройство для безопасного управления электросетью с участием возобновляемых источников энергии создали ученые ТПУ. По их данным, разработка поможет почти вдвое...

Культура

МОСКВА, 8 ноя. Президент РФ Владимир Путин прислал венок на церемонию прощания с телеведущим Юрием Николаевым, передает корреспондент . Церемония прощания с народным артистом...