В Парламентской газете вышел материал о создании оперативного штаба по развитию ИИ. Это не формальный экспертный совет, а межведомственный центр координации, который должен синхронизировать внедрение ИИ в экономику, социальную сферу и госуправление.
Речь идёт о выработке единых стандартов, устранении правовых пробелов и формировании обязательных требований к разработке и применению алгоритмов. Фактически - о централизованной модели управления ИИ на государственном уровне.
При этом законодатели в лице Шейкина подчёркивают наличие красных линий. Искусственный интеллект, по их словам, не должен вмешиваться в частную жизнь, нарушать права граждан или подрывать суверенитет. Формулировки звучат обнадёживающе, но остаются достаточно расплывчатыми, чтобы в дальнейшем быть наполненными любым содержанием через подзаконные акты и регламенты.
Технически вопрос гораздо сложнее, чем декларации. Любая современная ИИ-система строится на обработке больших массивов данных и статистических моделей машинного обучения. Если такие системы применяются в государственном управлении, они неизбежно начинают профилировать граждан: анализировать поведение, строить прогнозы, присваивать категории риска, автоматизировать принятие решений.
Без прозрачности это создаёт серьёзную проблему. Нейросети, особенно глубокие модели, по сути являются чёрными ящиками: они выдают результат без понятного человеку объяснения. Если государство будет принимать решения на основе таких систем, необходимо закреплять требования к логированию, хранению данных, независимому аудиту и возможности оспаривания алгоритмических выводов. Пока же в российском праве нет чёткого механизма распределения ответственности за ошибки ИИ - кто отвечает, если алгоритм допустил системную дискриминацию или неверное решение.
Отдельно в статье говорится о необходимости учитывать «культурные и исторические ценности». И здесь возникает один из ключевых рисков, прямо запрещённый даже öбнулённой конституцией: если государственный ИИ будет строиться на идеологически отобранных датасетах, ограниченных источниках информации и цензурированных массивах данных, он перестанет отражать реальность. Он начнёт воспроизводить не объективную картину общества, а заранее заданную модель правильной картины мира. А когда режим в очередной раз кардинально сменит идеологию - ИИ придётся обнулять.
Алгоритм обучается на статистике. Если статистика искажается, скрывается или системно подменяется, система будет принимать решения на основе искусственно сформированной выборки. Это означает риск появления ИИ, который подтверждает официальные нарративы, игнорирует неудобные данные и усиливает цензуру уже не только на уровне контента, но и на уровне автоматизированных управленческих решений.
Такой подход может привести к появлению идеологически откалиброванного искусственного интеллекта, где генеративные модели фильтруют ответы, рекомендательные системы подавляют альтернативные мнения, а аналитические инструменты выдают прогнозы, соответствующие заранее заданной политической рамке, основанной на намеренно ошибочных статистических данных и и применяемой сейчас философии "чтобы человек, который стоит выше меня в иерархии был доволен".
🏴☠️ Позиция Пиратской партии России (подпишись на наш ТГ канал) по этому вопросу отражена много лет назад в нашей программе и заявлениях и состоит из нескольких ключевых пунктов.
Во-первых, защита частной жизни не должна использоваться как предлог для усиления централизованного контроля над цифровой средой. Если государство получает монополию на регулирование ИИ без прозрачных процедур, это создаёт дисбаланс сил между гражданином и системой.
Во-вторых, любые ИИ-системы, применяемые в госуправлении, должны быть технически прозрачны. Необходимы обязательные требования к раскрытию архитектуры критически значимых алгоритмов, к публикации принципов формирования обучающих выборок и к независимому внешнему аудиту моделей.
В-третьих, гражданин должен иметь право знать, применяется ли в отношении него автоматизированное решение, на каких данных оно основано и каким образом его можно оспорить. Без этого цифровые права остаются декларацией.
И наконец, искусственный интеллект не должен становиться инструментом цифровой цензуры. Если государственный ИИ будет строиться на ограниченной информационной базе, на "правильной" статистике и отфильтрованных источниках, он неизбежно начнёт воспроизводить и усиливать искажения. В этом случае речь будет идти уже не о защите общества, а о технологическом закреплении идеологической конструкции.
Мы считаем, что будущее ИИ в России должно строиться на открытых данных, научной объективности, технологической проверяемости, здоровой конкуренции и участии гражданского общества.
Цифровая эпоха требует не только новых алгоритмов, но и новых гарантий свободы. Иначе искусственный интеллект может стать не инструментом развития, а механизмом автоматизированного ограничения реальности.