ДРАКОН
1 пост
1 пост
1 пост
Недавно писал на Пикабу про язык визуального программирования ДРАКОН и его связку с ИИ. В комментариях и Телеграме спрашивали про практические примеры. Вот один из них, даже более удачный чем в статье.
Делаете телеграм-бота с ИИ. Обычная схема — написали промпт типа «обработай запрос пользователя корректно» и молитесь, чтобы ИИ не начал фантазировать.
А теперь другой подход. Расписываете в ДРАКОН'е весь алгоритм:
— Определи тип запроса: вопрос, жалоба, команда.
— Если вопрос — классифицируй по теме.
— Достань контекст из базы/FAQ.
— Сформируй ответ по шаблону.
— Проверь: нет выдуманных фактов? Если есть — пересобери.
Где это заходит лучше всего — в повторяющихся процессах:
— Модерация сообщений и жалоб.
— FAQ и поддержка.
— Разбор форм/заявок.
— Классификация тикетов.
Плюсы:
— Меньше галлюцинаций, предсказуемые ответы.
— Можно версионировать алгоритмы и делать A/B-тесты.
— Легче разбирать ошибки по шагам.
ДРАКОН выдаёт это в JSON. Скармливаете схему ИИ как инструкцию вместо размытого промпта.
Когда задача повторяющаяся — на отладку алгоритма не жалко потратить время. Циклично обрабатываете тысячи запросов? ДРАКОН-схема в промпте даёт ИИ чёткий план действий. Это уже оправдывает время на описание и отладку.
Плюс на выходе получаете алгоритм — значит, можете сравнивать разные версии, проводить A/B-тесты. Серьёзный выигрыш в качестве для высоконагруженных ботов.
Понравилась статья? Я рассказываю об ИИ-инструментах в Cherry Studio Club — канале о практиках применения ИИ.
Дружелюбный Русский Алгоритмический язык, Который Обеспечивает Наглядность сокращенно ДРАКОН — визуальный язык, созданный в СССР для космической программы «Буран». Его разработали для задач высокой ответственности, где ошибка недопустима. Основная цель ДРАКОН — сделать логику однозначной и понятной. Сегодня мне кажется, что ДРАКОН может обрести новую жизнь благодаря искусственному интеллекту. Я не встречал статей о его применении с ИИ, и поэтому решил написать об этом.
В этой статье я разберу практический кейс: от простого алгоритма до готового кода через JSON-представление и проверку логики. Задача будет элементарной, но цель — показать смысл такого подхода. В конце статьи приведу пример из сферы, не связанной с программированием и мы разберём его на примере работы с ДРАКОН.
Введение
Сейчас в разработке популярна практика «вайбкодинга»: программист описывает задачу на словах, а ИИ генерирует код. Иногда это срабатывает, но чаще приходится много раз объяснять, где нужны исправления и что следует проверить. Слова не всегда передают логику. Легко упустить важные проверки, граничные случаи и последовательность действий. В результате мы ловим баги на ровном месте, что только усложняет процесс разработки.
Алгоритмическое мышление помогает решать эту проблему. Визуальная логика убирает двусмысленности, которые не всегда удаётся уловить с помощью текста. С помощью ДРАКОН мы можем разбить задачу на чёткие шаги и увидеть все возможные ветки выполнения, а также то, что происходит в каждом случае. Этот инструмент позволяет описывать логику без неясностей.
Я давно думал о создании редактора, в котором можно было бы строить логику блоками, а код генерировался бы автоматически. Эпоха ИИ вдохновила меня вернуться к этой идее. ДРАКОН — это не просто способ алгоритмизации задачи, а понятный язык общения с моделями ИИ. Схема задаёт структуру, а ИИ отвечает за реализацию кода.
Что такое ДРАКОН и чем он полезен?
ДРАКОН позволяет визуально представить алгоритмы, делая их понятными и доступными. Он исключает двусмысленности и помогает разработчикам чётко формулировать свои мысли. Визуальное представление улучшает качество кода и упрощает коммуникацию как между людьми, так и между человеком и ИИ.
Если вы хотите создать понятный и надёжный код или написать структурированную статью, создать правило обработки входящих сообщений, то стоит обратить внимание на ДРАКОН. Существует несколько бесплатных редакторов ДРАКОН-схем, работающих как в онлайн, так и в оффлайн режимах. Думаю, каждый сможет подобрать вариант для себя.
Главные правила ДРАКОН:
- Читается сверху вниз
- Без пересекающихся стрелок
- Единые блоки для условий, циклов и действий
- Масштабирование детализации: от общей карты до конкретных шагов
Это удобно не только разработчикам. Любой процесс со строгими шагами легче объяснить через ДРАКОН: аналитика, медицина, образование, юриспруденция, инженерия.
Пример: определение возрастной категории пользователя
Для примера я возьму простую задачу, понятную всем: «Определить возрастную категорию пользователя». Я хотел бы расписать классическую для программирования задачу коммивояжёра, но с ней становится слишком много кода. Моя цель — передать именно логику подхода, а не запрограммировать что-то сложное.
Логика задачи:
1. Спросить возраст.
2. Если возраст меньше 0 или больше 150 — попросить ввести снова.
3. Иначе проверить по порогам:
- < 13 → «Ребёнок»
- < 18 → «Подросток»
- < 65 → «Взрослый»
- Иначе → «Пожилой»
4. Вывести результат.
Такую схему удобно представить визуально в редакторе ДРАКОН. Она хранится в структурированном виде (JSON): у каждого блока есть тип (вопрос, действие, выбор), входы и выходы. Для человека это картинка, а для ИИ — точная спецификация, по которой можно сгенерировать код на Python, PHP, JS и других языках, без предположений о том, «что автор имел в виду».
Как AI «читает» ДРАКОН схемы
Модели ИИ могут:
- Разобрать структуру (последовательности, ветвления, циклы).
- Перевести блоки в код (вопрос → if, действие → присваивание/вызов, цикл → while/for).
- Проверить логику (мертвые ветки, непокрытые случаи, лишние проверки).
- Собрать документацию на естественном языке.
Я пробовал разные LLM: ChatGPT, Cloude, Qwen, K2 — все они отлично понимают алгоритмы в виде JSON, и как результат, ДРАКОН становится мостом между замыслом и реализацией. Человек держит в руках логику, а машина — синтаксис и рутину.
Важно: Не все LLM принимают файлы с расширением .drakon. Поменяйте расширение файла на .txt, и ИИ гарантированно его примет.
Результат в виде кода Python
Результат в виде кода PHP
Где ещё это работает
- Бизнес-процессы: заявки, согласования, логистика.
- Медицина: протоколы диагностики и лечения.
- Образование: учим детей думать алгоритмами без синтаксиса.
- Юриспруденция: пошаговые процедуры применения норм.
- Инженерия: аварийные инструкции и чек-листы.
Везде, где важна полнота и порядок, ДРАКОН спасает ИИ от лишних мыслей и предположений. Вы можете задать алгоритм обработки любых данных в понятном LLM формате и получить хорошую предсказуемость поведения.
Почему это важно сейчас
Генеративный код часто выглядит правдоподобно, но внутри могут быть дыры. Чёрный ящик не объясняет свои решения.
ДРАКОН возвращает контроль:
- Мы видим все ветки и что случится в каждом случае.
- Задаём валидации и «пути по умолчанию».
- Передаём ИИ не «текст с идеями», а чёткую схему.
Это снижает риски и сюрпризы на продакшене.
Итог
ДРАКОН — язык честной логики. Он не даёт прятаться за общие фразы: показывайте шаги и связи. В паре с ИИ это работает так:
- Человек формулирует структуру и ограничения.
- ИИ пишет код, находит пробелы, предлагает улучшения.
- Результат становится прозрачным и проверяемым.
Писать «по вайбу» можно. Но если хочется, чтобы система вела себя предсказуемо — лучше один раз собрать логику в ДРАКОН.
Бонус для тех кто не программирует, но дочитал до этого момента:
Я хочу показать, что ДРАКОН применим не только в программировании. Давайте представим эту статью в виде алгоритмической структуры в ДРАКОН.
Попросим ИИ К2 собрать план статьи из схемы
Понравилась статья? Я рассказываю об ИИ-инструментах в Cherry Studio Club — канале о практиках применения ИИ. Подписывайтесь!
Я много общаюсь с ИИ и удивляюсь, как мало в ру‑сегменте пишут про китайский ИИ-клиент Cherry Studio. Cherry мне настолько понравился, что завёл канал с примерами, разборами и настройками — заходите https://t.me/CherryStudioClub
Что это?
Cherry Studio — это ИИ‑клиент: один интерфейс, где подключаются популярные провайдеры (например, OpenAI, Anthropic, DeepSeek,) провайдеры-агрегаторы и локальные модели. Есть помощники (агенты), базы знаний, локальная история чатов и встроенное сравнение: выбираете несколько моделей — они отвечают одновременно.
Почему удобно:
— Меньше подписок, переключений
— Легко работать с разными ИИ
— Агенты под каждую задачу свой: ИИ может быть одновременно и программистом и менеджером
— Несколько задач выполняются параллельно
— Одновременное сравнение нескольких моделей
— При работе с провайдерами не нужен ВПН и оплата в рублях и можно сильно сэкономить
— Можно работать с локальными моделями и провайдерами без абонплаты — платите только за фактическое использование
— Можно использовать «Быстрые фразы» (Пример: «Мы работаем над блогом на тему: {тема блога}, а наша аудитория — {описание аудитории}») и тогда в диалоге появится вопрос: введите тему блога и описание аудитории
С какими ИИ работает:
Можно подключить стандартные модели, если оплачиваете и есть доступ через API. Можно подключить множество моделей через единых API-провайдеров (ссылки есть в закрепе) — так вы экономите и контролируете расходы. Можно работать бесплатно с локальными моделями. Можно выбирать лёгкую и дешёвую модель для черновиков, ограничивать длину ответов, выносить факты в базу знаний.
Как использовать:
— Скачайте клиент: https://www.cherry-ai.com/download
— Вставьте ключ провайдера (ссылки есть в закрепе канала) или выберите локальную модель.
— Создайте агента: цель, стиль, запреты.
— Подключите базу знаний: загрузите файлы/папку.
— Включите сравнение моделей на одном запросе — так вы быстро поймёте, какая модель лучше для ваших задач.
Агенты и ассистенты:
В Cherry очень просто настраивать агентов. Каждый агент может работать со своей LLM, собственной базой и своими MCP-инструментами (Model Context Protocol — подключение папок, API, браузера и т.п.). Можно делать агентов «на все деньги» с дорогими LLM — если не экономить — или «дешёвых» для рутинных черновиков и «дорогих» для точных ответов. Ассистент это «слепок» агента на момент его добавления к чату, он не меняется при изменении агента.
Один запрос в несколько LLM:
Сравнение моделей это прям киллер-фича, экономит время и улучшает понимание отличий LLM. Один запрос уходит в 2–3 модели одновременно. Можно видеть скорость ответа, сравнивать точность, стиль, ссылки. по наблюдениям, тексты часто лучше выходят у одной модели, извлечение фактов — у другой.
В чем экономия:
Я написал «При работе с провайдерами … оплата в рублях и можно сильно сэкономить», это обычно вызывает вопросы, как так, почему дешевле, дешевле = хуже и тд. Провайдеры получают гранты, скидки на объемы и прочие ухищерения, в некоторых вариантах есть динамическое переключение моделей по нагрузке, что удешевляет ответ и т.д.
Лайфхак:
Не по теме статьи, но отдельно я про это писать не буду, может кому-то пригодится. Для повседневных мелочей я использую https://chat.qwen.ai/ — он бесплатный, есть мобильное приложение и запросы с компьютера видно на телефоне. Многие не знают про него, что тоже удивительно.
У Cherry Studio масса других возможностей, но чтобы не перегружать статью, если она вызовет интерес, я сделаю цикл статей, а если не вызовет, все равно буду выкладывать информацию в канале, подписывайтесь.
И да, не ИИ, а я много лет пишу с «ёлочками» и — «длинными тире» используя клавиатуры Ильи Бирмана =)
Alibaba только что выпустила Qwen3-Next-80B-A3B — новую локальную ИИ-мега-модель на Hugging Face!
Не просто ещё одна версия — это революция в эффективности:
— 80 млрд параметров
— Гибрид внимания Gated DeltaNet + Gated Attention — для более «бережного» чтения длинных промптов.
— High‑Sparsity MoE (Mixture of Experts — активируется лишь часть экспертов): коэффициент ~1:50.
— Многотокеновое предсказание (MTP) — ускоряет обучение/вывод.
— Нормализации и управление вниманием для стабильности.
— High-Sparsity MoE — рекордно низкие затраты на вывод
— 10x быстрее Qwen3-32B при контексте >32K токенов
— 10x дешевле в развертывании
Модель уже в мобильном приложении, вебверсии и на Hugging Face — открыта, бесплатно, для локального запуска.
Сравнение:Qwen3-32B → 100 токенов/сек
Qwen3-Next-80B-A3B → 1000+ токенов/сек на одном A100!
Аналитики говорят: Alibaba бросает вызов DeepSeek. Пока другие стагнируют из-за нехватки чипов — Alibaba делает модели, которые работают даже на слабых серверах.
Я рассказываю о ИИ-инструментах в Cherry Studio Club — канале о практиках применения ИИ. Подписывайтесь!
Alibaba только что запустили Qwen3-Max-Preview — и это их самый мощный релиз на сегодня!
Модель насчитывает более 1 триллиона параметров — серьёзный скачок вперёд. По бенчмаркам она уже обгоняет не только Qwen3-235B, но и тяжеловесов вроде Claude Opus 4 и DeepSeek V3.1.На AIME25 — результат 80,6%, что приближается к уровню o3-mini.Лучше всего показывает себя в математике и программировании — там она просто вне конкуренции.
👉 Попробовать уже можно: chat.qwen.ai А для полноценного опыта — скачайте приложение (сканируйте QR-код на сайте) — там больше функций и удобнее интерфейс.
Я давно использую Qwen для рутинных задач — работает быстро и бесплатно. Посмотрим на Qwen3-Max-Preview сможет ли он стать главным ИИ-инструментом…
Рассказываю о ИИ-инструментах в Cherry Studio Club — канале о практиках применения ИИ.
Хотите превратить любое YouTube-видео в готовый промпт для ИИ — без просмотра, без конспектов, за пару кликов?
Забудьте про часы потраченного времени. Теперь достаточно изменить одну строчку в ссылке — и получить структурированный документ, который ИИ поймёт с полуслова.
Всё проще, чем кажется:
1. Скопируйте ссылку на выбранное YouTube-видео.
2. Замените "youtube" на "youtubetodoc" в URL.
Пример:
Пара минут — и вот результат: https://youtubetodoc.s3.amazonaws.com/docs/youtube/jrHXEYWXI04.md
Сервис YouTubetoDoc заменяет ручное конспектирование на автоматическую обработку. Он извлекает текст из видео и форматирует его в документ, экономя ваше время на просмотре длительного контента.
Маркетологи получают структурированные данные о конкурентах без необходимости просматривать часовые записи, а продакт-менеджеры могут быстро конвертировать образовательный контент в техзадания. Уверен, вы сможете найти еще много применений для данного инструмента!
Я рассказываю о подобных инструментах в Cherry Studio Club— канале о практиках применения ИИ. Подписывайтесь!
Увидел у друзей в канале, они постоянно помогают детским домам и школам в ЛНР, зацепило:
«Помните, раньше по телевизору часто показывали рекламу «Газпром — детям»? Такая замечательная по своей дороговизне, в прайм тайм. Так вот, мы с Ваней сначала думали написать в Газпром с просьбой приобрести для детского дома, который мы с вами поддерживаем, 5-6 лопат для угольной котельной. А там топят именно углём. Но потом подумали и решили, где «Газпром— детям» а где г. Антрацит? Это понятия разного порядка. И что это может быть конфликтом интересов и не стали лезть к монополии со своими нищенскими запросами. Посчитали и надеюсь, правильно, что не стоит провоцировать возможную дискредитацию. А то, знаете ли… В наше время..
Итак, обращение вне официальной заявки!
Чтобы вручную перекидать в котёл котельной 310 тонн угля (вы не ослышались и я не опечатался) в наступающем отопительном сезоне, нужно 5-6 таких лопат. Лучше, конечно, 10.»
Может c Силой Пикабу Газпром подкинет на лопаты?