Connect with us

Привет, что-то ищете?

The Times On Ru
  1. The Times On RU
  2. /
  3. Технологии
  4. /
  5. У человечества не осталось времени подготовиться к опасностям искусственного интеллекта

Технологии

У человечества не осталось времени подготовиться к опасностям искусственного интеллекта

Стремительный прогресс ИИ может опередить усилия людей по управлению мощными системами

По словам ведущего исследователя, у мира «может не хватить времени», чтобы подготовиться к угрозам безопасности со стороны искусственного интеллекта. Специалист по безопасности ИИ Дэвид Далримпл заявил, что стремительный прогресс может опередить усилия по управлению мощными системами.

Стремительный прогресс ИИ может опередить усилия людей по управлению мощными системами Belkin Alexey/news.ru/Global Look Press

По словам ведущего сотрудника правительственного агентства научных исследований Великобритании, у мира “может не хватить времени” подготовиться к рискам для безопасности, связанным с передовыми системами искусственного интеллекта, пишет The Guardian.

Дэвид Далримпл, программный директор и эксперт по безопасности искусственного интеллекта в агентстве Aria, сказал The Guardian, что люди должны быть обеспокоены растущими возможностями этой технологии.

“Я думаю, что мы должны быть обеспокоены системами, которые могут выполнять все функции, которые выполняют люди, чтобы добиться успеха в мире, но лучше”, — предупреждает специалист. “Потому что мы окажемся вне конкуренции во всех областях, в которых нам необходимо доминировать, чтобы сохранить контроль над нашей цивилизацией, обществом и планетой”.

Далримпл отмечает, что между государственным сектором и компаниями, занимающимися искусственным интеллектом, существует разрыв в понимании силы надвигающихся прорывов в этой технологии.

“Я бы посоветовал учесть, что события развиваются очень быстро, и у нас может не хватить времени, чтобы опередить их с точки зрения безопасности, — подчеркивает он. — И это не научная фантастика — предполагать, что в течение пяти лет большинство экономически значимых задач будут выполняться машинами с более высоким уровнем качества и меньшими затратами, чем людьми”.

Дэвид Далримпл настаивает, что правительствам не следует считать, что передовые системы надежны. Агентство Aria финансируется государством, но не зависит от правительства и направляет финансирование исследований. Компания разрабатывает системы для обеспечения безопасности использования ИИ в критически важных инфраструктурах, таких как энергетические сети.

“Мы не можем предполагать, что эти системы надежны. Наука, позволяющая это сделать, вряд ли появится вовремя, учитывая экономическое давление. Поэтому следующее лучшее, что мы можем сделать, и что мы, возможно, сможем сделать со временем, — это контролировать и смягчать недостатки”, — сказал он.

Описывая последствия того, что технический прогресс опережает безопасность, как “дестабилизацию безопасности и экономики”, Далримпл подчеркнул, что требуется дополнительная техническая работа для понимания и контроля поведения передовых систем искусственного интеллекта: “Прогресс может быть представлен как дестабилизирующий, но на самом деле он может быть хорошим, на что надеются многие люди на границе. Я работаю над тем, чтобы все шло лучше, но это сопряжено с очень высоким риском, и человеческая цивилизация в целом находится на грани перехода”.

Недавно, отмечает The Guardian, Институт безопасности искусственного интеллекта при правительстве Великобритании (AISI) заявил, что возможности передовых моделей искусственного интеллекта “быстро улучшаются” во всех областях, а производительность в некоторых областях удваивается каждые восемь месяцев.

По данным института, ведущие модели теперь могут выполнять задания на уровне ученика в среднем в 50% случаев, по сравнению с примерно 10% времени, затрачиваемого в прошлом году. AISI также обнаружил, что самые передовые системы могут автономно выполнять задачи, на которые специалисту потребовалось бы более часа.

Институт протестировал усовершенствованные модели для саморепликации, что является ключевой проблемой безопасности, поскольку это связано с тем, что система распространяет свои копии на другие устройства и становится все труднее контролировать. Тесты показали, что две передовые модели достигли успеха более чем на 60%. Однако институт подчеркнул, что наихудший сценарий маловероятен в повседневной среде, заявив, что любая попытка самовоспроизведения “вряд ли увенчается успехом в реальных условиях”.

Далримпл считает, что к концу 2026 года системы искусственного интеллекта смогут автоматизировать работу, эквивалентную полному дню исследований и разработок, что “приведет к дальнейшему расширению возможностей”, поскольку технология сможет самостоятельно совершенствовать математические и компьютерные элементы разработки искусственного интеллекта.

Оставить комментарий

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Стоит Посмотреть

Стоит Посмотреть

Новости По Дате

Январь 2026
Пн Вт Ср Чт Пт Сб Вс
 1234
567891011
12131415161718
19202122232425
262728293031  

Вам может быть интересно:

Технологии

НОВОСИБИРСК, 9 дек. Ученые Института химической биологии и фундаментальной медицины Сибирского отделения РАН (ИХБФМ СО РАН), применив новый биоинформатический подход, нашли соединение, подавляющее активность...

Общество

В бандитском беспределе в Гаити погибли около десяти человек Сотни людей покидают центральную часть Гаити после того, как банды совершают масштабные нападения и поджигают...

Общество

С.-ПЕТЕРБУРГ, 10 дек. Уголовное дело об оказании небезопасных услуг возбуждено по факту пожара на рынке в Невском районе в Санкт-Петербурге, сообщает пресс-служба ГСУ СК...

Политика

Анатолий Вассерман предсказал, возможны ли боевые действия между ЕС и Россией Европейские чиновники с завидной регулярностью делают заявления о том, что считают Россию прямой...