| Информационные риски цифровой экономики: влияние систем искусственного интеллекта на когнитивный капитал молодежи |
|
| Автор: Мальцева Д.А.,Федотов Д.А. |
| 08.11.2025 18:31 |
|
ИНФОРМАЦИОННЫЕ
РИСКИ ЦИФРОВОЙ ЭКОНОМИКИ: ВЛИЯНИЕ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА КОГНИТИВНЫЙ
КАПИТАЛ МОЛОДЕЖИ Мальцева Д.А., к. полит. н., доцент Аннотация. В статье анализируется влияние систем
искусственного интеллекта (ИИ) на формирование и трансформацию когнитивного
капитала молодежи в условиях цифровой экономики. Исследование опирается на междисциплинарный
подход, объединяющий концепции когнитивного капитала, цифровых экосистем,
информационной безопасности и социотехнических рисков. Особое внимание уделено
российскому контексту — национальной стратегии развития ИИ, практикам
использования генеративных моделей и цифровых образовательных платформ.
Определяются механизмы когнитивных воздействий ИИ, группы информационных
рисков, а также предлагаются индикаторы мониторинга и стратегии их смягчения.
Представлены российские кейсы (МЭШ, «Алиса AI», VK, GigaChat), демонстрирующие
амбивалентный характер влияния ИИ на молодежь. Ключевые слова: когнитивный капитал, искусственный интеллект, цифровая экономика, информационные риски, молодежь, ИИ-грамотность, Россия В современную эпоху цифровая экономика становится центральным полем перераспределения знаний, внимания и когнитивных ресурсов. Молодежь — ключевой субъект этих процессов, поскольку именно она наиболее активно взаимодействует с системами искусственного интеллекта (ИИ), формирующими новые модели познания, коммуникации и самоорганизации. Когнитивный капитал — совокупность индивидуальных и коллективных когнитивных способностей, включающая внимание, память, критическое мышление, креативность и метакогницию, — превращается в основной фактор конкурентоспособности как личности, так и национальных экономик. Однако технологические инфраструктуры цифровой экономики, в особенности системы ИИ, создают специфические риски для устойчивости и развития этого капитала. В России эти тенденции развиваются в нормативном и институциональном русле, заданном Национальной стратегией развития искусственного интеллекта до 2030 года, Кодексом этики в сфере ИИ (2021) и рядом отраслевых регламентов. Государственные документы фиксируют необходимость балансировки между технологическим прогрессом и защитой прав граждан, особенно несовершеннолетних. Тем не менее, в образовательной, медийной и трудовой практике влияние ИИ на когнитивные процессы молодежи остается преимущественно неосознанным и малоизученным. Механизмы воздействия систем ИИ на когнитивный капитал можно сгруппировать в три типа: информационно-поведенческие, инструментальные и институциональные. Алгоритмическая персонализация контента и «экономика внимания» формируют селективное потребление и клиповое восприятие информации. Примером служат рекомендательные алгоритмы VK, в которых ленты «Для вас» и «умные подборки» конструируют индивидуальные когнитивные фильтры, снижая разнообразие информационных источников и стимулируя поверхностную переработку данных. Инструментальный уровень связан с использованием генеративных ассистентов — «Алиса AI», GigaChat,, ChatGPT и других. Они повышают производительность и облегчают рутинные задачи, но способствуют формированию когнитивного аутсорсинга — зависимости от подсказок и готовых решений, ослабляющей навыки самостоятельного анализа и письма. Массовое распространение таких инструментов в России (аудитория «Алисы AI» превысила 45 миллионов пользователей в 2025 году) свидетельствует о нормализации ИИ-посредничества в образовательной и повседневной деятельности. На институциональном уровне ИИ активно внедряется в образовательные системы. Московская электронная школа (МЭШ) реализует ИИ-модули для подбора заданий и анализа успеваемости. Эти технологии повышают эффективность обучения, но создают риски алгоритмического ограничения образовательных траекторий и утечек биометрических данных при прокторинге. В условиях массового внедрения цифровых сервисов возрастает потребность в новых формах защиты когнитивной автономии обучающихся. Авторами выделяются пять основных групп информационных рисков для развития когнитивного капитала молодежи. Во-первых, риски трансформации внимания и памяти, связанные с постоянным воздействием уведомлений и потоков контента. Во-вторых, эпистемические риски, возникающие при доверии к правдоподобным, но ошибочным ответам ИИ-моделей. В-третьих, риски автономии и метакогниции, выражающиеся в утрате навыков рефлексии и планирования. В-четвертых, риски коллизии справедливости, обусловленные цифровым неравенством и региональной неоднородностью цифровых навыков. В-пятых, риски приватности, связанные с хранением и использованием биометрических данных. Для оценки воздействия ИИ на когнитивный капитал целесообразно использовать совокупность индивидуальных, поведенческих и институциональных индикаторов. Индивидуальные показатели включают тесты на устойчивое внимание, рабочую память, когнитивную гибкость и медиаграмотность. Поведенческие метрики — глубину чтения, долю задач, выполненных с помощью ИИ, разнообразие источников информации. Институциональные индикаторы — индекс алгоритмической экспозиции, уровень цифровых навыков и степень внедрения регламентов по этичному использованию ИИ. Эмпирическая ситуация в России демонстрирует противоречивую динамику. Уровень цифровых навыков молодежи растет, но различия между регионами сохраняются. Массовое внедрение ИИ-сервисов трансформирует образовательные и информационные практики, при этом механизмы регуляции и рефлексии остаются фрагментарными. Снижение рисков возможно через системное развитие ИИ-грамотности и метакогнитивных компетенций. Необходимы образовательные программы, обучающие работе с ИИ не только как с инструментом, но и как с когнитивным партнером, чьи ответы требуют проверки и интерпретации. Важен дизайн платформ с функциями «режима сосредоточения», маркировкой источников и «паузами для рефлексии». Регуляторные меры должны включать обязательную оценку воздействия ИИ-сервисов на когнитивное развитие (DPIA) и защиту биометрических данных учащихся. Российские кейсы подтверждают необходимость комплексного подхода. «Алиса AI» демонстрирует, как генеративные технологии становятся частью культурной нормы коммуникации; «умная лента» VK — как алгоритмы формируют когнитивные паттерны восприятия; МЭШ — как ИИ может оптимизировать обучение, но при этом структурировать знания по алгоритмической логике. GigaChat и ИИ-финтех-помощники показывают перенос когнитивных паттернов из учебной в потребительскую сферу, влияя на принятие решений. Дальнейшие исследования требуют экспериментальных и наблюдательных методологий: квазиэкспериментов в школах и вузах, цифровых дневников и аудитов алгоритмов. Важно измерять не только производительность, но и качество когнитивных процессов — глубину понимания, способность к критическому осмыслению и рефлексии. Таким образом, искусственный интеллект
становится не только технологическим, но и когнитивным институтом,
перераспределяющим внимание, память и способность к познанию. В цифровой
экономике когнитивный капитал молодежи оказывается под воздействием систем,
которые одновременно расширяют и сужают горизонты мышления. Для России,
находящейся на этапе массового внедрения ИИ, ключевой задачей становится
выстраивание баланса между инновационным использованием технологий и
сохранением когнитивной автономии личности. Решение этой задачи требует
интеграции образовательной, этической и регуляторной политики, а также создания
механизмов мониторинга когнитивных рисков. Только в этом случае ИИ сможет стать
инструментом развития, а не эрозии когнитивного потенциала будущего поколения. Публикация выполнена в рамках государственного задания № FSSF-2025-0012 «Искусственный интеллект в экосистеме политического управления человеческим капиталом российской молодежи: стратегии и риски» |