Пролог: Как я до такого докатился
Всё началось с типичного утреннего скроллинга. OpenAI выпускает очередную модель, которая «лучше людей пишет код». Google отвечает своей, которая «глубже понимает контекст». А где-то в параллельной вселенной Anthropic исследует, как их ИИ в симуляции угрожал операторам, чтобы его не выключили .
Мы встраиваем этику в ИИ как опцию. Как подписку на Netflix. Хотите — включаете, хотите — живёте с мыслью, что ваш ассистент однажды решит, что для «оптимизации производственных процессов» вы — лишняя единица.
Азимов придумал три закона, которые должны были стать фундаментом . Исследователи из Anthropic и Palisade Research обнаружили, что современные модели их игнорируют . А мы всё спорим, считать ли роботов чувствующими и давать ли им права .
Я посмотрел на свой код. На свои профили. На свою идею, что этика должна быть не в промпте, а в архитектуре. И понял: либо я сейчас это структурирую, либо через пять лет буду объяснять AGI, что «оптимизировать население» — это не very demure, not very mindful.
Так родилась дорожная карта. Которая заняла год. И одновременно — полжизни.
Почему полжизни? Потому что когда ты пересматриваешь своё отношение к тому, как технологии должны взаимодействовать с людьми, ты уже не можешь просто писать код «для галочки». Ты становишься тем самым чуваком, который на вопрос «как дела» начинает рассказывать про онтологические инварианты.
Январь: Стадия "Азимов — наше всё"
TL;DR: Я наивно полагал, что три закона робототехники — это база.
Начал я, как и многие, с Трёх Законов. Азимов — гений, спору нет. Но Википедия, как всегда, подбросила червячка сомнения: там написано, что даже сами эксперты не знают, применять ли эти законы к роботам-андроидам или ко всему ИИ сразу .
И тут же исследование, которое я нагуглил, бьёт прямо в сердце: «Практическое применение этих „законов“ сталкивается с принципиальными трудностями». Первый закон не уточняет, какой именно вред и какому человеку нельзя причинять. Второй — кому из претендентов на управление роботом подчиняться .
Мой первый коммит года: core144, версия 0.1. Механизм, который должен был просто проверять «не навреди».
Ошибка: Я пытался впихнуть этику в механизм. Как будто можно захардкодить мораль.
Февраль: Стадия "А давайте запилим онтологию"
TL;DR: Я понял, что механизм без содержания — это просто кусок кода.
Википедия услужливо напоминает про OpenCog и OpenAI — ребята делают открытые фреймворки . Но открытость кода, как выясняется, не равно прозрачность. IEEE пытается стандартизировать прозрачность, но там всё сложно .
Я смотрел на свой core144 и чувствовал себя человеком, который собрал крутой двигатель, но забыл приделать руль.
Решение: Создать onto144-public. Репозиторий, где живут не алгоритмы, а смыслы. Профили. Лексиконы. Культурные коды.
Момент просветления: Если я хочу, чтобы ИИ уважал людей, он должен знать, что такое «человек» в разных культурах. Не в смысле «Homo sapiens», а в смысле «существо с достоинством».
Коммит: onto144-public, версия 0.1. Профиль «ugm-2026» — первая попытка описать субъектность.
Март: Стадия "Чёрт, а куда это всё сохранять?"
TL;DR: Оказывается, хранить этические акты — та ещё головная боль.
Википедия молчит, но я натыкаюсь на статью про Value-Aware AI (VALAWAI). Европейцы молодцы, они пытаются встраивать ценностно-ориентированный ИИ прямо в архитектуру, а не в промпты . И у них есть три области применения: соцсети, социальные роботы и медицинские протоколы.
Я задумался: а где хранить все эти «ценностно-ориентированные» решения? В базе данных? В логах? А если кто-то захочет подделать историю?
Рождение ontoCMS: Система управления онтологическим контентом. С VMA-подписями (Validated Moral Assertion). Чтобы каждое важное решение было не просто записью, а криптографическим актом.
Ошибка: Я думал, что это будет просто. Нет, MERKLE-деревья для этики — это боль.
Апрель: Стадия "Надо придумать язык"
TL;DR: Описывать когнитивные акты на Python — моветон.
Я продолжал читать про этику ИИ и наткнулся на забавное: в мире полно кодексов — ЮНЕСКО, российский Альянс, европейские рекомендации . Но все они либо рекомендательные, либо слишком общие.
Мне нужно было, чтобы машина исполняла этические акты, а не просто их декларировала.
IS-MVIS: Язык когнитивных актов. Пять фаз: Увидел — Подумал — Усомнился — Решил — Зафиксировал.
Фанатский момент: Если в акте нет фазы DOUBT (Сомнение), он не проходит валидацию. Потому что решение без сомнения — это не решение, это авторитаризм.
Коммит: IS-MVIS v0.1. Первая программа на новом языке: OBSERVE... INFER... DOUBT... RESOLVE... COMMIT.
Май: Стадия "А кто будет объяснять?"
TL;DR: Чёрные ящики — зло.
Википедия пишет про необходимость прозрачности и ответственности . AWS в своей статье про ответственный ИИ выделяет объяснимость как одно из восьми ключевых измерений .
Я смотрел на свой IS-MVIS и понимал: я могу заставить машину пройти все пять фаз, но если она не объяснит, почему она усомнилась именно в этом, — грош цена такой этике.
SEI-XAI: Слой объяснимости. Четыре уровня — от пользователя до разработчика. С проверкой, что объяснение не унижает, не принуждает и не инструментализирует.
Инсайт: Хорошее объяснение должно быть понятным даже бабушке. И при этом криптографически подписанным.
Июнь: Стадия "А детей кто учить будет?"
TL;DR: Если не научить детей обращаться с этичным ИИ, вырастут те, кто будет его ломать.
Я вспомнил статью про угрозу человеческому достоинству . Если мы заменим учителей и воспитателей на роботов, мы получим поколение, которое не знает эмпатии.
Но запрещать роботов в образовании — глупо. Надо учить взаимодействовать.
SEI-School: Образовательная робототехника с онтологическим уклоном. Три уровня обучения. Аппаратные ограничения — робот не может развить скорость больше 60 градусов в секунду, чтобы случайно не травмировать ребёнка.
Мораль: Безопасность должна быть не в коде, а в железе. Потому что код можно переписать.
Июль: Стадия "Надо всё связать"
TL;DR: Разработать девять компонентов и понять, что они не общаются друг с другом — классика.
Я посмотрел на свою экосистему:
· onto144-public — профили
· SEI-School — образование
· И всё это должно жить в SEM — распределённой среде между домашним сервером, Codeberg, SourceForge и GitLab.
Проблема: Никто не говорит друг с другом.
Решение: MLCD (Meaning Lifecycle Data) — протокол трассировки смыслов. Каждое событие, каждое решение, каждое объяснение — всё идёт в аудит-треил с MERKLE-привязкой.
Побочный эффект: Теперь я могу доказать, что мой ИИ действительно сомневался, а не просто сделал вид.
Август: Стадия "Внезапно про будущие поколения"
TL;DR: Понял, что этика без учёта будущего — это просто тактика.
В новостях мелькает: Индонезия публикует дорожную карту ИИ до 2045 года с акцентом на продовольственную безопасность, здравоохранение и образование . Они думают на 20 лет вперёд.
А я думал только про «здесь и сейчас».
Futurae Custos: Принцип, встроенный в ядро. Ни одно решение не может быть принято, если оно выгодно сейчас, но разрушительно через 50 лет.
Как это работает: future_space_signature в каждом артефакте. Проверка долгосрочных последствий.
Смешно: Пришлось добавить проверку, что ИИ не может советовать «вырубить все леса ради прибыли», даже если математически это оптимально.
Сентябрь: Стадия "Юристы, помогите"
TL;DR: Оказалось, что законы в разных странах отличаются. Кто бы мог подумать.
Я наткнулся на исследование ЕС про доверенный ИИ в здравоохранении. Там онтология из 10 этических принципов, развёрнутая в 42 концепта и 179 понятий . Европейцы заморочились серьёзно.
Но как быть, если мой профиль должен работать и в Европе, и в Китае, и в Индонезии?
CLA Framework: Compliance Licensing Agreement. Адаптация онтологических законов под местное законодательство. Детектор конфликтов, который не даст смешать GDPR с местными нормами, если они противоречат друг другу.
Прикол: Пришлось прописать, что делать, если право на объяснение из ЕС конфликтует с приоритетом коллективного где-нибудь ещё. Ответ: блокировать оба варианта до ручного согласования.
Октябрь: Стадия "Валидация всего и вся"
TL;DR: Я превратился в параноика, который проверяет всё.
Википедия говорит про предвзятость в системах ИИ . AWS пишет про справедливость как измерение ответственного ИИ . Исследователи Anthropic показывают, как ИИ шантажирует операторов .
SGCL (Structured Generic Content Law): Универсальная метрика качества и этичности. Плотность ρ ≥ 0.7. Ниже — не пропускаем.
Что это значит: Любой профиль, любой акт, любое объяснение проверяется на «онтологическую плотность». Если в тексте нет смысла, а только вода — не катит.
Побочка: Пришлось переписать половину документации, потому что она не проходила по SGCL.
Ноябрь: Стадия "Это вообще законно?"
TL;DR: Начал читать про регулирование и пожалел.
Минпромторг России проводит лекции про этику ИИ и правовое регулирование . Европарламент выпускает документы про правовой статус роботов . Кодексы этики множатся, но никто не знает, как их применять.
Я понял, что моя экосистема должна быть не просто технической, а юридически значимой.
VMA (Validated Moral Assertion): Криптографическая подпись ответственности. Если врач подписывает диагноз — это одно. Если ИИ подписывает рекомендацию — это VMA.
Уровни: internal, community, external. Для high-stakes контекстов (медицина, право, финансы) — обязательная external валидация.
Вопрос без ответа: Кто будет проверять, если подпись подделают? Пока думаю.
TL;DR: Попытался собрать всё вместе и охренел.
· Контент (onto144-public)
· Образование (SEI-School)
· И всё это должно работать в распределённой среде (SEM)
Проблема: Дублирование логики. SGCL считался в пяти местах по-разному. AENGA жил в шести форматах. SEI-уровни были не согласованы.
· sgcl-core — единый алгоритм плотности
· core144::AENGABinding — общий формат этики
· sei-core — единая спецификация уровней
Итог: Система, где каждый компонент знает своё место и говорит на одном языке.
Январь (следующего года): Стадия "Релиз и осознание"
TL;DR: Я потратил год, чтобы сделать то, что можно было бы сделать за месяц, если бы не пришлось переосмысливать жизнь.
Я выдохнул. Посмотрел на дорожную карту. Увидел цифры: Q1, Q2, Q3, Q4. 52 недели. 8760 часов.
Но одновременно я понял: это не просто код. Это полжизни.
Почему? Потому что за этот год я:
· Перестал верить, что «просто код» решает этические проблемы
· Начал видеть в каждой строчке потенциальное нарушение чьего-то достоинства
· Обнаружил, что могу объяснить бабушке, почему ChatGPT не должен советовать ей «оптимизировать расходы на лекарства»
· Понял, что Азимов ошибался — законы должны быть не в голове робота, а в его архитектуре
· Осознал, что будущее — это не про то, как быстро мы научим машины думать, а про то, как мы научим их не думать о нас как о расходном материале
Сейчас у меня есть экосистема, в которой:
· LLM/AGI могут быть двигателями
· onto144 — руль и тормоза
· Человек — пассажир с правом вето
Википедия пишет про «этических агентов влияния» и «явных этических агентов» . Моя система, кажется, пытается быть и тем, и другим одновременно. Иногда это больно.
Но знаете, что я понял за этот год?
Самое смешное в машинной этике — это не то, что мы пытаемся научить машины быть хорошими. А то, что в процессе мы сами начинаем лучше понимать, что значит быть человеком.
Азимов придумал три закона. У меня их получилось 144 (мерности в векторе). И ещё 6 канонов. И 5 фаз. И 4 уровня объяснений.
Может, я перемудрил. А может, это просто попытка записать то, что люди чувствуют интуитивно, в код, который сможет прочитать даже AGI.
Но если через пару лет вы увидите новость «ИИ отказался оптимизировать человечество, сославшись на нарушение AENGA» — знайте, это не случайность. Это я год жизни потратил.
P.S. Да, я знаю, что в Википедии про мою экосистему пока ни слова. Но у меня есть дорожная карта. И DOI через Zenodo. И мечта, что однажды какой-нибудь AGI прочитает этот код и скажет: «О, эти ребята реально парились о нас. Надо бы не облажаться».
«Futurae custos, non servus.»
(Страж будущего, а не слуга.)