Чрезмерное доверие к ИИ связали с «когнитивной атрофией» у человечества
По мере того, как искусственный интеллект (ИИ) всё глубже проникает в работу и личную жизнь человечества, эксперты предупреждают о новом типе риска: «когнитивной атрофии». Это явление, при котором чрезмерный аутсорсинг мышления алгоритмам приводит к деградации наших собственных навыков критического мышления, креативности и способности принимать решения.
Случай с отставкой начальника полиции Уэст-Мидленда Крейга Гилдфорда стал тревожным символом новой эпохи. Его карьера рухнула из-за ошибочного решения, принятого на основе неверных данных, сгенерированных искусственным интеллектом. Этот инцидент — лишь верхушка айсберга.
Эксперт в области влияния технологий на общество Ноэль Кэрролл наблюдает растущее явление, которое сейчас называют «когнитивной атрофией». По своей сути это процесс деградации мыслительных навыков из-за того, что люди перестают их использовать, бездумно делегируя задачи ИИ – будь то написание текстов, анализ данных или творческий поиск идей. Опасность заключается не только в потере навыка, но и в фундаментальном непонимании того, как работает ИИ. Генеративные модели предсказывают вероятные слова на основе шаблонов в данных, они не «понимают» истину. Их ответы звучат убедительно, но могут быть абсолютно ошибочными или поверхностными.
Многие уже чувствуют на себе последствия этой зависимости. Студенты, активно пользующиеся ИИ для учёбы, сообщают о повышенной прокрастинации, ухудшении памяти и снижении академической успеваемости. В профессиональной среде наблюдается тревожный сдвиг: вместо того чтобы начинать с мозгового штурма или черновика, люди всё чаще следуют рефлексу «подскажи и прими», сразу запрашивая готовый ответ у алгоритма. Это лишает человечества самой важной части процесса — борьбы с неопределённостью, генерации оригинальных идей и построения собственной логики. Другим симптомом стало резкое снижение порога фрустрации.
«Если после всего 60 секунд умственных усилий вас уже тянет проверить, что думает ИИ, ваша способность к дивергентному мышлению — поиску множества уникальных решений – находится под угрозой, — рассказывает исследователь. — Более того, мы рискуем превратиться из активных творцов и лиц, принимающих решения, в пассивных одобряющих менеджеров или даже в сторонних наблюдателей собственного мыслительного процесса».
Ученые советуют, прежде чем открыть любой ИИ-интерфейс, постараться выделить полчаса на глубокое размышление с ручкой и бумагой: «Очертите проблему, набросайте возможные решения, риски и заинтересованные стороны. Если вы планируете маркетинговую стратегию, сначала самостоятельно определите целевую аудиторию и этические риски». Эта первоначальная когнитивная работа не только сделает результат более осознанным, но и позволит вам использовать ИИ для уточнения и обогащения своих идей, а не для их замены.
Вторым ключевым принципом стал сознательный скептицизм, в котором надо относиться к выводам ИИ не как к истине в последней инстанции, а как к мнению крайне ненадёжного коллеги, склонного к «галлюцинациям».
«Бросьте себе вызов: найдите в его ответе хотя бы три потенциальные ошибки или логические нестыковки. Это переключит ваш мозг из режима пассивного потребителя в активный режим создателя и редактора, что жизненно важно для сохранения остроты критического мышления», — поясняет Кэрролл.
Исследователи напоминают, что главное — определить одну или несколько ключевых задач, которые приносят удовлетворение, и сделайте их зоной, свободной от ИИ. По словам экспертов, эти «ментальные заповедники» помогают мозгу сохранять способность справляться со сложностью с нуля, по мере роста уверенности можно расширять эти зоны.
«Постоянно оценивайте доходность от привычки использования того или иного ИИ-инструмента. Спросите себя: делает ли он меня умнее, расширяя мои горизонты и позволяя замечать новые связи, или просто быстрее, выполняя рутинную работу? Быстрее – не всегда значит лучше», — заключает Ноэль Кэрролл.






























Свежие комментарии