Информационные риски цифровой экономики: влияние систем искусственного интеллекта на когнитивный капитал молодежи Печать
Автор: Мальцева Д.А.,Федотов Д.А.   
08.11.2025 18:31

ИНФОРМАЦИОННЫЕ РИСКИ ЦИФРОВОЙ ЭКОНОМИКИ: ВЛИЯНИЕ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

НА КОГНИТИВНЫЙ КАПИТАЛ МОЛОДЕЖИ

 

Мальцева Д.А., к. полит. н., доцент
Федотов Д.А.,
аспирант
Российский университет дружбы народов, г. Москва, Россия
Санкт-Петербургский государственный университет, г. Санкт-Петербург, Россия


Аннотация. В статье анализируется влияние систем искусственного интеллекта (ИИ) на формирование и трансформацию когнитивного капитала молодежи в условиях цифровой экономики. Исследование опирается на междисциплинарный подход, объединяющий концепции когнитивного капитала, цифровых экосистем, информационной безопасности и социотехнических рисков. Особое внимание уделено российскому контексту — национальной стратегии развития ИИ, практикам использования генеративных моделей и цифровых образовательных платформ. Определяются механизмы когнитивных воздействий ИИ, группы информационных рисков, а также предлагаются индикаторы мониторинга и стратегии их смягчения. Представлены российские кейсы (МЭШ, «Алиса AI», VK, GigaChat), демонстрирующие амбивалентный характер влияния ИИ на молодежь.

Ключевые слова: когнитивный капитал, искусственный интеллект, цифровая экономика, информационные риски, молодежь, ИИ-грамотность, Россия


В современную эпоху цифровая экономика становится центральным полем перераспределения знаний, внимания и когнитивных ресурсов. Молодежь — ключевой субъект этих процессов, поскольку именно она наиболее активно взаимодействует с системами искусственного интеллекта (ИИ), формирующими новые модели познания, коммуникации и самоорганизации. Когнитивный капитал — совокупность индивидуальных и коллективных когнитивных способностей, включающая внимание, память, критическое мышление, креативность и метакогницию, — превращается в основной фактор конкурентоспособности как личности, так и национальных экономик. Однако технологические инфраструктуры цифровой экономики, в особенности системы ИИ, создают специфические риски для устойчивости и развития этого капитала.


В России эти тенденции развиваются в нормативном и институциональном русле, заданном Национальной стратегией развития искусственного интеллекта до 2030 года, Кодексом этики в сфере ИИ (2021) и рядом отраслевых регламентов. Государственные документы фиксируют необходимость балансировки между технологическим прогрессом и защитой прав граждан, особенно несовершеннолетних. Тем не менее, в образовательной, медийной и трудовой практике влияние ИИ на когнитивные процессы молодежи остается преимущественно неосознанным и малоизученным.


Механизмы воздействия систем ИИ на когнитивный капитал можно сгруппировать в три типа: информационно-поведенческие, инструментальные и институциональные. Алгоритмическая персонализация контента и «экономика внимания» формируют селективное потребление и клиповое восприятие информации. Примером служат рекомендательные алгоритмы VK, в которых ленты «Для вас» и «умные подборки» конструируют индивидуальные когнитивные фильтры, снижая разнообразие информационных источников и стимулируя поверхностную переработку данных.


Инструментальный уровень связан с использованием генеративных ассистентов — «Алиса AI», GigaChat,, ChatGPT и других. Они повышают производительность и облегчают рутинные задачи, но способствуют формированию когнитивного аутсорсинга — зависимости от подсказок и готовых решений, ослабляющей навыки самостоятельного анализа и письма. Массовое распространение таких инструментов в России (аудитория «Алисы AI» превысила 45 миллионов пользователей в 2025 году) свидетельствует о нормализации ИИ-посредничества в образовательной и повседневной деятельности.


На институциональном уровне ИИ активно внедряется в образовательные системы. Московская электронная школа (МЭШ) реализует ИИ-модули для подбора заданий и анализа успеваемости. Эти технологии повышают эффективность обучения, но создают риски алгоритмического ограничения образовательных траекторий и утечек биометрических данных при прокторинге. В условиях массового внедрения цифровых сервисов возрастает потребность в новых формах защиты когнитивной автономии обучающихся.


Авторами выделяются пять основных групп информационных рисков для развития когнитивного капитала молодежи. Во-первых, риски трансформации внимания и памяти, связанные с постоянным воздействием уведомлений и потоков контента. Во-вторых, эпистемические риски, возникающие при доверии к правдоподобным, но ошибочным ответам ИИ-моделей. В-третьих, риски автономии и метакогниции, выражающиеся в утрате навыков рефлексии и планирования. В-четвертых, риски коллизии справедливости, обусловленные цифровым неравенством и региональной неоднородностью цифровых навыков. В-пятых, риски приватности, связанные с хранением и использованием биометрических данных.


Для оценки воздействия ИИ на когнитивный капитал целесообразно использовать совокупность индивидуальных, поведенческих и институциональных индикаторов. Индивидуальные показатели включают тесты на устойчивое внимание, рабочую память, когнитивную гибкость и медиаграмотность. Поведенческие метрики — глубину чтения, долю задач, выполненных с помощью ИИ, разнообразие источников информации. Институциональные индикаторы — индекс алгоритмической экспозиции, уровень цифровых навыков и степень внедрения регламентов по этичному использованию ИИ.


Эмпирическая ситуация в России демонстрирует противоречивую динамику. Уровень цифровых навыков молодежи растет, но различия между регионами сохраняются. Массовое внедрение ИИ-сервисов трансформирует образовательные и информационные практики, при этом механизмы регуляции и рефлексии остаются фрагментарными.


Снижение рисков возможно через системное развитие ИИ-грамотности и метакогнитивных компетенций. Необходимы образовательные программы, обучающие работе с ИИ не только как с инструментом, но и как с когнитивным партнером, чьи ответы требуют проверки и интерпретации. Важен дизайн платформ с функциями «режима сосредоточения», маркировкой источников и «паузами для рефлексии». Регуляторные меры должны включать обязательную оценку воздействия ИИ-сервисов на когнитивное развитие (DPIA) и защиту биометрических данных учащихся.


Российские кейсы подтверждают необходимость комплексного подхода. «Алиса AI» демонстрирует, как генеративные технологии становятся частью культурной нормы коммуникации; «умная лента» VK — как алгоритмы формируют когнитивные паттерны восприятия; МЭШ — как ИИ может оптимизировать обучение, но при этом структурировать знания по алгоритмической логике. GigaChat и ИИ-финтех-помощники показывают перенос когнитивных паттернов из учебной в потребительскую сферу, влияя на принятие решений.


Дальнейшие исследования требуют экспериментальных и наблюдательных методологий: квазиэкспериментов в школах и вузах, цифровых дневников и аудитов алгоритмов. Важно измерять не только производительность, но и качество когнитивных процессов — глубину понимания, способность к критическому осмыслению и рефлексии.


Таким образом, искусственный интеллект становится не только технологическим, но и когнитивным институтом, перераспределяющим внимание, память и способность к познанию. В цифровой экономике когнитивный капитал молодежи оказывается под воздействием систем, которые одновременно расширяют и сужают горизонты мышления. Для России, находящейся на этапе массового внедрения ИИ, ключевой задачей становится выстраивание баланса между инновационным использованием технологий и сохранением когнитивной автономии личности. Решение этой задачи требует интеграции образовательной, этической и регуляторной политики, а также создания механизмов мониторинга когнитивных рисков. Только в этом случае ИИ сможет стать инструментом развития, а не эрозии когнитивного потенциала будущего поколения.

 



Публикация выполнена в рамках государственного задания № FSSF-2025-0012 «Искусственный интеллект в экосистеме политического управления человеческим капиталом российской молодежи: стратегии и риски»