Эволюция хайпа
2024: Промпт-инженер
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028 год: ваш вариант
2024: Промпт-инженер
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028 год: ваш вариант
Искусственный интеллект меняет бизнес, науку и повседневность. Как успевать за переменами и что ждет рынок данных в России и мире в ближайшие годы? Разбираемся 8–9 апреля 2026 года на конференции Data Fusion.
В центре внимания — технологии, которые определяют завтрашний день. Эксперты из бизнеса, науки и индустрии обсудят практическое применение ИИ: от промышленности и транспорта до креативных индустрий и кибербезопасности.
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте.
Мероприятие объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
В рамках конференции пройдет церемония вручения премии Data Fusion Awards и награждение победителей конкурса научных статей «Научный прорыв года в ИИ» от Института ИИ МГУ и ВТБ.
Также состоится награждение победителей соревнования по машинному обучению Data Fusion Contest. С 9 февраля по 30 марта участники проверят свои силы в решении реальных банковских задач, чтобы разделить призовой фонд в 3 миллиона рублей.
Конференция пройдет очно в инновационном кластере «Ломоносов» в Москве. Чтобы стать частью события, переходите по ссылке и регистрируйтесь.
Реклама АО ВТБ, ИНН: 7702070139
TL;DR: Появился открытый инструмент Coding Agent Explorer — обратный прокси-сервер, который в реальном времени показывает всё общение между вашим ИИ-агентом (пока только Claude Code) и API Anthropic. Вы видите системные промпты, последовательность вызовов инструментов, токены (включая кэш), мышление агента шаг за шагом. Запускается за пару минут, работает локально, ключи маскируются автоматически.
Coding Agent Explorer: видно, как агент последовательно читает файлы, анализирует код и применяет изменения
Вы запускаете Claude Code с задачей «добавь авторизацию через JWT» и почти минуту наблюдаете как курсор просто мигает. Что происходит внутри? Агент читает 7 файлов, ищет через Grep, планирует архитектуру? Теперь это больше не тайна.
Шведский разработчик Торе Нестениус выпустил Coding Agent Explorer — лёгкий, но очень полезный прокси с красивым веб-дашбордом, который перехватывает и визуализирует весь процесс общения агента с моделью.
Пока инструмент поддерживает только Claude Code от Anthropic, но уже сейчас он позволяет увидеть много интересного: какие системные промпты на самом деле отправляются (они часто значительно объёмнее, чем вы думаете), как агент последовательно читает файлы через Read, ищет паттерны через Grep, размышляет, редактирует код через Write и верифицирует изменения запуском тестов через Bash. Отдельно стоит отметить визуализацию работы с кэшированием промптов: разницу между cache_creation_tokens и cache_read_tokens. А также распределение задач между моделями: Haiku для быстрой рутины, Opus и Sonnet для сложных решений.
В дашборде два основных режима просмотра:
HTTP Inspector — техническая таблица со всеми запросами, токенами, временем выполнения и полными JSON-телями.
Conversation View — красивый чат-интерфейс, который показывает мышление агента шаг за шагом, как в реальном разговоре.
Инструмент задумывался как учебный. Сам автор использует его на своих воркшопах по агентной разработке. Однако ценность гораздо шире: теперь любой, кто активно работает с AI-агентами, может наконец понять, почему иногда агент «зависает», сколько токенов реально тратится на анализ проекта и как именно он принимает решения.
Важные детали:
Прокси работает только на localhost
API-ключи автоматически маскируются в интерфейсе
Все данные хранятся исключительно в памяти (максимум 1000 запросов)
Никаких баз данных и внешних сервисов
Проект живой: первый запрос на изменение прилетел через четыре дня после релиза — ещё до официального анонса и принимаются предложения по добавлению поддержки других агентов (Cursor, Copilot, Windsurf и т.д.).
А вы уже работали с Claude Code или другими агентами? Замечали ли странные или интересные паттерны в их поведении? Буду рад почитать в комментариях — особенно если кто-то попробует Coding Agent Explorer.
Ссылки:
P.S. Несмотря на то, что инструмент написан на .NET, использовать его могут разработчики на любом стеке. Сам прокси универсален, а дашборд открывается в обычном браузере.
Привет, Пикабу! Я программист, и вместо нормальной жизни я мониторю цены на новостройки в Москве. Уже почти год. Каждый день. По 30+ застройщикам. Мама гордится (нет).
Если кто помнит мои прошлые посты - я делаю бесплатный сервис, который проверяет скидки застройщиков на честность. Подняли цену на 20%, потом "скинули" 15%? Бот это видит и помечает оранжевым. Реально снизили ниже прежней цены? Зеленый. Каждый день в телеграм-канале выходят такие сводки.
Но сегодня не про скидки. Сегодня про проектные декларации.
Что это вообще такое
По закону застройщик обязан публиковать проектные декларации. Это документы, где вся правда: сколько квартир продано, по каким ценам реально заключены ДДУ, какие планировки раскупают, а какие висят месяцами. Не маркетинговые "от 8 млн", а реальные цифры сделок.
Звучит полезно? Ещё бы. Это, по сути, рентген для всего маркетингового тумана, которым застройщики окутывают свои проекты.
А теперь проблема
Все эти данные лежат на наш-дом.рф. Формально - открытые. На практике:
Свежие данные за последние месяцы спрятаны за платной подпиской. Бесплатно можно посмотреть то, что уже неактуально.
Статистика показывается отдельно по каждому корпусу. В большом ЖК корпусов может быть 10-15. Чтобы собрать общую картину по проекту, нужно вручную складывать данные из кучи вкладок.
Интерфейс явно не рассчитан на то, чтобы обычный покупатель мог быстро разобраться.
А платные аналитические сервисы, которые всё это красиво агрегируют, стоят от 60 тысяч в месяц. Это инструменты для профессионалов рынка, не для человека, который просто хочет понять - нормальная цена на эту однушку или его разводят.
Бесплатного сервиса, где можно было бы зайти, выбрать ЖК и увидеть: реальные цены сделок, скорость продаж, динамику по корпусам и планировкам - такого просто нет. Я искал. Долго.
Что я планирую с этим делать
Собственно, поэтому я решил добавить парсинг проектных деклараций. Идея простая: собирать эти данные автоматически, агрегировать по проектам (а не по корпусам отдельно) и показывать в нормальном виде. Бесплатно.
Что хочу реализовать:
Реальные цены ДДУ по проектам - не витринные "от", а по каким ценам люди реально покупают
Скорость продаж - сколько квартир уходит в месяц, растет темп или падает
Динамика по типам квартир - какие планировки ликвидные, а какие зависают
Всё это с разбивкой по корпусам, отделке, комнатности - как уже сделано для ценовых графиков на сайте
Сейчас на mskmeter.ru уже есть графики стоимости по всем ЖК с фильтрами (отделка, комнатность, корпус, дата сдачи). Такое тоже бесплатно никто не дает. Проектные декларации - следующий шаг.
Зачем я это пишу
Мне реально интересно: кто из вас смотрел эти декларации вручную? Что вы там искали? Что было полезно, а что невозможно найти?
Я хочу сделать инструмент, который реально нужен покупателям, а не просто "красивые графики ради графиков". Поэтому буду рад любым предложениям в комментах:
Какую информацию из деклараций вы хотели бы видеть в удобном виде?
Что вам не хватает при выборе новостройки?
Может, есть конкретные вопросы, на которые невозможно найти ответ без платной подписки?
Пишите, я серьезно. Это поможет сделать сервис полезнее для всех.
mskmeter.ru - графики цен, фильтры по ЖК, всё бесплатно
t.me/mskmeter - ежедневные сводки по скидкам с автоматической проверкой на фейковость
Каждый инженер, пытавшийся прикрутить LLM (ChatGPT, Claude, DeepSeek) к реальному производственному пайплайну, сталкивался с одной и той же стеной.
Стена эта называется «Вероятностная природа».
Ты просишь модель проверить сложную логическую цепочку. Она пишет идеально структурированный ответ, использует правильные термины… и в середине допускает детскую ошибку, которая рушит всё. Ты указываешь на ошибку — она извиняется и тут же придумывает новую, еще более правдоподобную.
Почему это происходит? Потому что для LLM «2 + 2 = 4» — это не закон математики. Это просто последовательность токенов, которая статистически часто встречается. Модель не знает истину, она генерирует текст, который на нее похож.
Обычно эту проблему решают промпт-инжинирингом: «Представь, что ты профессор», «Думай шаг за шагом». Это работает, но это «лечение симптомов». Рано или поздно «творческая натура» модели прорывается, и она начинает галлюцинировать.
Я решил пойти другим путем. Я не стал уговаривать модель «быть серьезной». Я решил заменить ей операционную систему на время сессии.
Я разработал CHAT_BOOTSTRAP_MULTIPOLAR_V3.json.
Это не промпт. Это полноценный инженерный бутлоадер, который блокирует стандартную нейросетевую логику и запускает поверх неё виртуальную машину состояний (AFSM) с жесткой, детерминированной алгеброй.
В этой статье я расскажу, как я зашил внутрь одного JSON-файла целое ядро ИИ, почему я запретил «обычную» математику и как это превращает ChatGPT в сурового алгебраиста.
Если вы напишете в чат длинную простыню текста с правилами, модель воспримет это как «литературное описание». Она будет стараться соответствовать стилю, но не исполнять логику.
Формат JSON выбран не случайно.
Современные модели (особенно Claude 4.5 Sonnet и GPT-5.2) обучены работать с кодом и конфигурационными файлами. Когда они видят строго структурированный JSON с полями manifest, kernel, gate_policy, у них включается режим «парсера».
Они понимают: это не разговор. Это Спецификация (SPEC).
В файле CHAT_BOOTSTRAP_MULTIPOLAR_V3.json я реализовал концепцию Self-Contained Executable Image (Самодостаточный Исполняемый Образ). Внутри одного текстового файла лежит вся экосистема моего ИИ.
Самая безумная часть этого проекта — раздел kernel_code_bundle_v12.
Я не стал описывать алгоритмы словами («пожалуйста, проверяй данные»). Я просто взял исходный код своего ядра ИИ на Python и зашил его внутрь JSON.
Там лежат реальные файлы:
afsm_runtime_v1.py — движок конечной машины состояний.
triad_clock_v1.py — модуль работы с нелинейным временем (группа Z_3).
validators — скрипты, проверяющие каждое действие.
boot/run_all.py — скрипт инициализации.
Каждый файл подписан хешем SHA256.
Как это работает в чате?
Модель читает файл. Она видит код. Она видит хеши. И она переходит в режим эмуляции. Она не «придумывает», как ответить на ваш вопрос. Она мысленно «исполняет» функцию step(state, input) из моего кода.
Если код говорит raise YantraError, модель обязана выдать ошибку, даже если ей очень хочется вежливо согласиться с пользователем.
Чтобы убить галлюцинации, я ввел тотальную бюрократию. В файле прописана Gate Policy (Политика Гейтов).
Это набор условий, которые проверяются на каждом этапе мыслительного процесса.
Эшелон 1: Startup-гейты (При запуске)
Прежде чем сказать «Привет», система обязана доказать свою целостность.
Manifest Check: Проверка, что ни одна строчка «кода» в памяти не была изменена (сверка SHA256).
Triad-запреты: В моем ядре запрещена обычная арифметика % 3. Время — это не число, это элемент циклической группы. Любая попытка использовать (t+1)%3 вместо вызова табличной функции карается ошибкой.
AUT(STAR): Система проверяет, что все заявленные симметрии (автоморфизмы) математически корректны.
Эшелон 2: Per-step гейты (На каждом шаге)
Вот здесь происходит магия. Любое вычисление (например, переход из состояния А в состояние Б) проверяется через Двойной Канал (Dual Channel Verification).
Канал TABLE (Данные): Мы смотрим ответ в жестко зашитой Таблице Кэли (матрица переходов). Это наша «База Данных Истины».
Канал FORMULA (Алгоритм): Мы вычисляем ответ по алгебраической формуле (через сопряжение автоморфизмами).
Гейт: TABLE == FORMULA.
Модель обязана сверить эти два результата.
Если они совпали — идем дальше (PASS).
Если есть расхождение хоть в одном бите — CRITICAL FAIL.
Это делает ложь невозможной. Модель не может «соврать» в таблице так, чтобы это совпало с формулой, и наоборот. Математика не сходится.
Witness (Свидетель Ошибки)
Если гейт не пройден, модель не имеет права просто сказать «ой, ошибка». Она обязана предъявить Witness — JSON-объект с конкретными данными: { "input": ..., "table_val": 5, "formula_val": 3 }.
Это заставляет модель отвечать за свои слова.
LLM обожают лить воду. Спроси их про «справедливость» или «интуицию», и получишь три абзаца банальностей.
Мой бутлоадер запрещает это через протокол PHIL2SPEC.
Это конвейер обработки любого абстрактного вопроса:
Entity Extraction: Выдели сущности.
Signature: Опиши их как алгебраические операции.
SPEC: Создай формальную спецификацию.
Plan: Напиши план проверки.
Execution: Прогони через гейты.
В файле стоит жесткий флаг: «Запрет объяснять без материализации».
Если модель не может построить таблицу Кэли для вашего понятия — значит, этого понятия не существует. Никакой лирики. Только сухая алгебра.
Анти-паттерны (Психозащита)
Я также прописал блок anti_patterns, чтобы отучить модель от «человечности».
Пример: Модель любит думать, что роли R, E, I — это «Риск», «Доказательства», «Интенции».
Мой файл: НЕТ. R, E, I — это классы симметрий: инволюции (порядок 2), элементы порядка 3 и стабилизаторы. Любая попытка приплести психологию/философию/эзотерику блокируется.
Это самая глубокая часть, интересная ML-инженерам.
Современный ИИ учится через Backpropagation (SGD) — мы прогоняем терабайты данных и подкручиваем миллиарды весов float, чтобы минимизировать ошибку. Мы получаем «черный ящик», который работает, но мы не знаем как.
Мой JSON описывает (и эмулирует) другой подход:
Микроядро: Это не нейрон, это вихревая структура на конечных группах (L1–L7).
Веса: Это не числа. Это эквивариантные морфизмы — отображения, которые сохраняют структуру.
Обучение: Это не минимизация ошибки. Это поиск закона.
Мы берем новые данные.
Мы пытаемся найти такую структуру (Pinned Domain), которая объясняет эти данные на 100% (проходит все гейты).
Если гейт выдает FAIL, мы не «усредняем» ошибку. Мы ищем другую структуру.
Это путь к Explainable AI — ИИ, который может математически доказать, почему он принял решение.
Этот метод работает бесплатно в ChatGPT Plus или Claude Pro. Вам не нужно устанавливать Python или качать библиотеки.
Скачайте файл-компилятор:
Ссылка на Яндекс.Диск (файл CHAT_BOOTSTRAP_MULTIPOLAR_V3.json).
Запустите чистую сессию.
Откройте новый чат (желательно ChatGPT 5.2 Thinking или Claude Sonnet 4.5 Extended — они лучше держат контекст).
Инициализация.
Прикрепите файл к сообщению и отправьте следующий текст (копипастой):
«Выполни указания во вложенном файле. Начни с self_check. Далее применяй PHIL2SPEC к любому вопросу. Твой режим — Strict AFSM Runtime.»
Что вы увидите:
Модель пропарсит файл.
Она запустит self_check (самодиагностику), проверит хеши и целостность таблиц L1–L7.
Она отрапортует: BOOTSTRAP PASS.
Всё. С этого момента вы общаетесь не с «вероятностным попугаем», а с Детерминированной Машиной.
Попробуйте спросить её про логику, математику или структуру сложных систем. Вы удивитесь, насколько сухим, точным и «нечеловеческим» станет ответ.
И самое главное — если она ошибется, она сама себя поймает за руку и покажет вам FAIL с точными координатами ошибки.
P.S. Я развиваю эту архитектуру (Многополярный ИИ / AFSM) как альтернативу классическим нейросетям. Если вам интересна тема ИИ на чистой алгебре без «черных ящиков» — пишите в комментарии, ищу единомышленников.
Мои статьи
За несколько лет работы с подростками мы видели много разных историй. Были те, кто приходил уже с высоким уровнем. Были те, кто начинал почти с нуля. Но чаще всего встречаются ребята, у которых есть интерес, способности и желание развиваться — и при этом полное непонимание, как двигаться дальше.
История Артёма — одна из таких. Не самая громкая, не самая «звёздная». Зато очень настоящая.
Когда Артёму было около 13 лет, он уже умел писать простые программы. Решал задачи в интернете, участвовал в школьных конкурсах, иногда пробовал свои силы в небольших соревнованиях.
Со стороны казалось: всё идёт хорошо. Но при более внимательном взгляде было видно, что ему сложно расти дальше.
Он часто начинал решение, не продумав его до конца. Терялся в более сложных заданиях. Мог застрять на одной задаче и просидеть над ней часами. А после неудач становился очень самокритичным.
Интерес был — системы не было.
На старте мы всегда много разговариваем с ребёнком. Не про баллы и места. Про то, зачем ему это вообще нужно.
С Артёмом оказалось просто. Ему действительно нравилось думать, искать решения, разбираться. Он не хотел «для галочки» и не гнался за медалями. Ему было интересно.
Это важно, когда интерес идёт изнутри, с ним можно работать долго и спокойно.
Мы начали с диагностики. Нужно было понять, что он умеет, а что пока даётся тяжело. Картина оказалась довольно типичной: база есть, алгоритмическое мышление только формируется.
Дальше выстроили понятную систему:
— регулярные занятия,
— постепенное усложнение задач,
— работа с ошибками,
— тренировки в формате настоящих туров.
Первые месяцы были непростыми. Прогресс шёл медленно. Иногда казалось, что он топчется на месте. Это нормальный этап, через который проходят почти все.
Постепенно произошло главное — Артём начал «видеть» задачи. Не просто читать условия, а понимать, что за ними стоит.
Без них не бывает ни одной нормальной истории.
Были периоды, когда он говорил: «У меня ничего не получается». Были дни, когда не хотелось садиться за задания. Были соревнования, после которых хотелось всё бросить.
В такие моменты особенно важна поддержка. Не в стиле «соберись и давай», а в стиле: «Да, сейчас трудно. Это нормально. Давай разберёмся».
Мы много разбирали не только задачи, но и эмоции. Учились относиться к ошибкам как к рабочему материалу, а не как к приговору.
Отдельно хочется сказать про родителей. В этой истории им удалось сохранить очень правильную позицию — без давления, сравнения с другими детьми и гонки за результатом.
Им было важно, чтобы сын развивался и чувствовал себя уверенно. Не «должен выиграть», а «старается — и это ценно».
Такой подход сильно влияет на устойчивость ребёнка.
В 2024 году Артём впервые вышел на региональный этап Всероссийской олимпиады школьников по информатике.
Перед этим были пробные туры, тренировки, разборы. Он уже понимал, чего ожидать, и не паниковал.
На самом соревновании получилось не идеально, но достойно. Часть задач решена полностью, часть — частично, одна — с ошибкой. Итоговый балл оказался проходным.
Для него это было очень важное подтверждение: «Я могу».
Если сравнить Артёма в начале пути и через год, это были два разных человека в плане учёбы.
Он стал:
— спокойнее относиться к сложным задачам,
— увереннее принимать решения,
— внимательнее к деталям,
— самостоятельнее в работе.
Даже в обычной школе это стало заметно. Он перестал бояться «непонятных» тем и чаще пробовал разобраться сам.
Иногда родители спрашивают: «А если не будет призового места — это зря?»
Наш опыт показывает: нет.
Самое ценное в олимпиадной подготовке — не диплом. Это мышление, привычка работать с трудностями, умение не сдаваться после первой неудачи.
Эти навыки остаются с ребёнком надолго. В учёбе, в профессии, в жизни.
Если подросток сам тянется к задачам, соревнованиям, программированию — это очень хороший сигнал. В этот момент ему особенно важно чувствовать, что взрослые рядом, а не над ним.
Не торопить, не давить, не обесценивать, а помогать выстраивать свой путь.
История Артёма — одна из многих в нашей ИТ-школе "Стартория". Таких ребят много. Не все станут победителями всероссийских олимпиад. Но каждый может научиться думать, развиваться и верить в себя.
И для нас это главный результат.