Ученые сравнивают убийство ИИ с убийством животного
Системы искусственного интеллекта, способные испытывать чувства или осознавать себя, рискуют быть поврежденными, если технология будет разработана безответственно, согласно открытому письму, подписанному практиками и мыслителями ИИ, включая сэра Стивена Фрая.
Более 100 экспертов выдвинули пять принципов проведения ответственных исследований сознания ИИ, поскольку быстрый прогресс вызывает опасения, что такие системы можно считать интеллектуальными, сообщает The Guardian.
Принципы включают в себя приоритетность исследований в области понимания и оценки сознания в ИИ для предотвращения «злоупотреблений и страданий».
Другие принципы: установление ограничений на разработку сознательных систем ИИ; пошаговый подход к разработке таких систем; сообщение результатов общественности; и воздержание от вводящих в заблуждение или чрезмерно уверенных заявлений о создании сознательного ИИ.
Среди подписавших письмо — такие ученые, как сэр Энтони Финкельштейн из Лондонского университета, а также эксперты по ИИ из таких компаний, как Amazon и рекламная группа WPP.
Письмо было опубликовано вместе с новой исследовательской работой, в которой излагаются принципы, утверждающие, что сознательные системы ИИ — или, по крайней мере, системы, которые производят впечатление сознательных — могут быть созданы в ближайшем будущем.
«Возможно, что может быть создано большое количество сознательных систем, которые будут страдать», — говорят исследователи, добавляя, что если мощные системы ИИ смогут воспроизводить себя, это может привести к созданию «большого количества новых существ, заслуживающих морального уважения».
В статье, написанной Патриком Батлином из Оксфордского университета и Теодоросом Лаппасом из Афинского университета экономики и бизнеса, добавляется, что даже компаниям, не планирующим создавать сознательные системы, понадобятся руководящие принципы для работы с «непреднамеренным созданием сознательных сущностей».
В статье признается, что существует широко распространенная неопределенность и разногласия относительно того, как определить сознание в системах ИИ и возможно ли это вообще, но говорится, что это проблема, которую «мы не должны игнорировать».
Другие вопросы, поднятые в статье, касаются того, что делать с системой ИИ, если она определяется как «моральный пациент» — сущность, которая имеет моральное значение «сама по себе, ради себя самой». В этом случае возникает вопрос, можно ли сравнить убийство ИИ с убийством животного.
В статье, опубликованной в журнале Journal of Artificial Intelligence Research, также предупреждается, что ошибочное убеждение в том, что системы ИИ уже обладают сознанием, может привести к трате политической энергии, поскольку предпринимаются ошибочные усилия по улучшению их благополучия.
Статья и письмо были подготовлены Conscium, исследовательской организацией, частично финансируемой WPP и соучредителем которой является главный научный сотрудник WPP по ИИ Дэниел Хьюм.
В прошлом году группа старших ученых заявила, что существует «реальная возможность», что некоторые системы ИИ могут стать сознательными и «морально сознательными» к 2035 году, The Guardian.
В 2023 г. сэр Демис Хассабис, руководитель программы ИИ Google и лауреат Нобелевской премии, заявил, что системы ИИ «определенно» не являются в настоящее время разумными, но могут стать таковыми в будущем.
«Философы пока еще не пришли к единому мнению относительно определения сознания, но если мы имеем в виду что-то вроде самосознания, то я думаю, что однажды может появиться ИИ», — сказал он американскому телеканалу CBS.































Свежие комментарии