Соединяет практически неограниченное количество компьютеров через интернет. Ключевые особенности:
* шифрование передаваемых данных;
* замена реального IP-адреса на виртуальный;
* возможность удалённой работы, обхода блокировок;
* поддержка разных протоколов (OpenVPN, IKEv2, WireGuard и др.).
2. **VLAN (локальная виртуальная сеть)**
Позволяет группировать устройства в подсети, даже если они физически находятся в разных местах. Используется для разделения трафика внутри организаций — например, можно создать отдельные подсети для бухгалтерии, юридического отдела и т. п.
3. **VXLAN (виртуальная расширяемая сеть)**
Разновидность VLAN с расширенными возможностями:
* практически нет ограничений на число подгрупп;
* более равномерное распределение трафика;
* подходит для крупных систем с большим числом подключений.
4. **Wi‑Fi Enterprise-класса**
Профессиональные беспроводные сети, способные обслуживать сотни или тысячи одновременных подключений. Применяются на массовых мероприятиях (стадионы, парки, выставки). Обеспечивают:
* высокую скорость и стабильность соединения;
* защиту данных;
* возможность авторизации пользователей;
* поддержку сервисов вроде Captive Portal для показа рекламы или сбора данных.
### Практические примеры использования
* **Корпоративные сети.** VPN и VLAN для связи офисов и сотрудников.
* **Массовые мероприятия.** Wi‑Fi Enterprise для болельщиков на стадионе, посетителей парков.
* **Удалённая работа.** VPN для защищённого подключения к рабочим сервисам.
* **Облачные сервисы.** Виртуальные сети для связи большого числа клиентов с серверами.
### Важные замечания
* **Безопасность.** При массовых подключениях критически важна защита данных.
* **Пропускная способность.** Нужно подбирать оборудование с запасом мощности под ожидаемую нагрузку.
* **Задержка (лаг).** Чем больше подключений, тем выше риск задержек — требует оптимизации сети.
* **Правовые аспекты.** Некоторые виды сетей (например, Wi‑Fi) требуют авторизации пользователей согласно местным законам.
Выбор конкретного решения зависит от задач, бюджета и требований к безопасности.
2) На него откликнулось 227 человек, из них половина пришли "посмотреть" и быстро отсеялись на очередном этапе проверки дз.
3) Трудоустроился один человек, причем как раз к концу обучения, остальные застенчиво умолчали нашли ли работу.
К концу обучения обогнал всех! Слушал и выполнял! Молодец!
4) Сейчас в группе все ещё состоит более 100 человек, группа перешла в статус АРХИВ и теперь там кладезь знаний для учеников которые прошли все ДЗ, созвоны, при должном усердии и желании могут найти работу, если уже не нашли и просто не сообщили) Так как возможность отправлять сообщения тоже отключена, группа стала "папкой с важными файлами" :).
5) Некоторые из учеников решили пойти дальше и изучать Автоматизацию на Python, но это уже совсем другая история.
6) В прошлом посте я искал себе ученика у которого точно получится. Цель выполнена)
"Убежден что в IT нет ничего слишком сложного. Возраст может сыграть роль, но главное — это желание развиваться и учиться, если хотите узнать больше о тестировании или сделать шаг в эту область, спрашивайте, отвечу без проблем.Что думаете насчет моей затеи? Получится ли у меня найти себе ученика? или может учеников? (Итог: Получилось!) Сможем ли найти работу? (Нашли!) Напишите в комментарии, мне очень важно знать ваше мнение, а так же всех кто прочитает данный пост)"
7) Как присоединиться? В профиле себе добавил тг канал, надеюсь мне за это не прилетит, чтоб вы могли присоединиться и написать комментарий там под последним постом, пример: "Хочу перейти в IT"! Так я вас увижу и добавлю в группу на Январь 2026. Вся информация будет на канале! Благодарю за внимание! Для админов и модеров пикабу: не продаю и не рекламирую ничего. Спасибо за понимание :)
Добавил на свой сайт новую модель InstructPix2Pix (Авторские права 2023 Тимоти Брукс, Александр Холынский, Алексей А. Эфрос) которая позволяет применить стили рисунка к фотографии. Может кому-то будет полезно или просто интересно для развлечения.
Исходное фото
На данный момент доступны следующие варианты.
Уголь
Простой карандаш
Акварель
Шариковая ручка
Пастель
В модели InstructPix2Pix чем выше качество исходной фотографии, тем качественнее результат обработки.
Поэкспериментирую с другими стилями и, если успешные попадутся, добавлю их тоже.
Многие считают, что низкий результат в FMS означает высокий риск травмы. Но исследования показывают: связь есть, но она слишком слабая, чтобы использовать тест как инструмент прогнозирования [1].
DOI: 10.1136/bjsports-2016-096938
Тест FMS (Functional Movement Screen) состоит из 7 упражнений — от глубокого приседа до теста на стабилизацию корпуса. Каждое движение оценивается по шкале от 0 до 3 баллов, максимум — 21. Долгое время пороговым считалось значение 14 баллов: ниже — высокий риск травм, выше — условно безопасная зона (Kiesel, 2007 [2]).
7 упражнений из теста FMS
Однако последующие исследования показали, что эта граница нестабильна. Например, оптимальные значения отличались у мужчин и женщин (Knapik, 2015 [3]).
Систематический обзор Moran et al., 2017 [4] объединил данные 24 исследований (4 120 участников). У мужчин с результатом ниже 14 риск травмы был выше на 47% (RR = 1.47). Но на практике это означало лишь увеличение с двух до четырёх случаев на тысячу человеко-дней (Knapik, 2013 [7]). То есть статистически связь есть, но она крайне слабая.
Для таких видов спорта, как футбол, хоккей и бег, результаты оказались «ограниченными» или «противоречивыми» (Moran, 2017 [4]; Bonazza, 2017 [5]; Dorrel, 2015 [6]). Три независимых метаанализа пришли к схожему выводу: FMS надёжен как тест (разные эксперты ставят схожие оценки), но невалиден как инструмент прогнозирования травм.
Основная проблема в том, что травмы многофакторны. Они зависят не только от техники движений, но и от вида спорта [7], нагрузки в тренировках [9], времени сезона [10]. Скрининг пытается разделить спортсменов на «высокий» и «низкий» риск, хотя травма всегда вероятностна.
Какой практический вывод можно сделать? Более оправданно уделять внимание не универсальному скринингу, а тем практикам, которые доказали эффективность в снижении риска. Например, нордические сгибания уменьшают вероятность повреждений подколенных мышц у игроков командных видов спорта (Goode, 2015 [8]). Такой подход работает независимо от «исходного риска».
Несмотря на популярность, сегодня нет доказательств, что FMS способен прогнозировать травмы. Более перспективно — мониторинг нагрузки и внедрение профилактических упражнений (Gabbett, 2016 [9]; Jones, 2017 [10]).
Источники: [1] Cook, 2010 — Movement: Functional Movement Systems [2] Kiesel et al., 2007 — N Am J Sports Phys Ther [3] Knapik et al., 2015 — J Strength Cond Res [4] Moran et al., 2017 — Br J Sports Med [5] Bonazza et al., 2017 — Am J Sports Med [6] Dorrel et al., 2015 — Sports Health [7] Knapik et al., 2013 — BMC Musculoskelet Disord [8] Goode et al., 2015 — Br J Sports Med [9] Gabbett, 2016 — Br J Sports Med [10] Jones et al., 2017 — Sports Med
Обзор архитектур и их взаимосвязей: динамика работы BDH и BDH-GPU является естественным мостом между Трансформерами и моделями мозга.
Долгое время мы бились над вечной проблемой: как заставить нейронные сети расти, не превращая их в чёрные ящики, которые никто не понимает. Масштабируемость против интерпретируемости – вот наш крест. Все эти "революционные" трансформеры, с их триллионами параметров, лишь умножают технический долг. Но эта статья… она словно вздох облегчения. В ней предлагают архитектуру Dragon Hatchling (BDH), вдохновлённую мозгом, где локальные связи и перевзвешивание ребер – ключ к эффективности и пониманию. Наконец-то, возможно, мы приблизились к искусственному интеллекту, который не просто работает, но и который мы сможем понять… и, вероятно, однажды, сломать. Но это уже детали. Эта работа – первый проблеск настоящего биологически правдоподобного ИИ, который изменит всё.
Что меня всегда умиляло в нашей индустрии – это постоянные поиски "революций". Каждый новый фреймворк, каждая "убийственная" архитектура – лишь очередная строка в git history, которую через пару лет будут ковырять, пытаясь понять, зачем мы тут наворотили. Проблема, как мне кажется, в том, что мы гонимся за масштабом, забывая, что "красиво" и "понятно" – это разные вещи. Все эти "большие модели" – это чёрные ящики, которые мы пытаемся оптимизировать, не понимая, что внутри. Нам нужна масштабируемость, да, но не за счёт прозрачности. Иначе мы просто создаем всё более сложные и хрупкие системы, которые рано или поздно отвалятся. Эта статья, как мне кажется, вовремя напоминает, что вдохновение можно черпать и из биологии, а не только из бесконечных слоёв абстракций. Попытка создать что-то более "естественное", пусть и в рамках нейронных сетей, – это глоток свежего воздуха в этом болоте "инноваций".
От Трансформеров к Синапсам: Обоснование BDH
Итак, нас снова убеждают в «революции». Только теперь вместо очередного фреймворка предлагают «нейроподобную» архитектуру. Цель, как обычно, благородная – преодолеть ограничения текущих трансформеров. Зачем? Чтобы всё работало… ещё быстрее? Нет, конечно, они говорят о более эффективных вычислениях и приближении к принципам работы мозга. Впрочем, всегда интересно наблюдать, как люди пытаются «улучшить» природу, не понимая её глубинной простоты.
Суть в том, что BDH и BDH-GPU строятся на основе масштабируемых, биологически вдохновлённых сетей взаимодействующих частиц (нейронов). Акцент делается на локальные вычисления и коммуникации, что, по мнению авторов, снижает потребность в глобальных операциях. Как будто уменьшение количества связей само по себе решит проблему. Конечно, они также упоминают о разреженных активациях и возможности реализации на нейроморфном оборудовании. Как всегда, всё сводится к железу. Главное – это красивая диаграмма, а не работающий прототип. Они утверждают, что понимают «основные принципы рассуждений», но, боюсь, это просто способ придать вес очередному стеку технологий. BDH, по их словам, демонстрирует конкурентоспособную производительность по сравнению с GPT2, а также «эмерджентную модульность» и поддержку разреженных активаций. Звучит многообещающе, но я бы проверил, что всё это работает в продакшене. В конечном итоге, вся эта «революция» – это просто ещё один способ усложнить жизнь инженеров. Всё, что можно задеплоить — однажды упадёт, и эта архитектура не исключение.
Масштабирование, Правдоподобность и Будущие Направления
Итак, к чему всё это инженерное колдовство? Если переводить с академического на человеческий, то авторы пытаются построить нейронные сети, которые хоть немного похожи на мозг. Идея, конечно, не нова, но обычно всё заканчивается сложными макросами, которые потом нужно поддерживать. Здесь же они предлагают архитектуру BDH и BDH-GPU, основанную на взаимодействии частиц – якобы, как нейроны. Всё это, разумеется, звучит красиво, но я уже вижу, как продакшен найдёт способ выдать ошибку в самый неподходящий момент.
Физическое представление BDH как упрощённой модели.
Главное, что они заявляют, – это поддержка разреженных активаций и возможность эффективной реализации на нейроморфном железе. Звучит многообещающе, но я бы не стал закладываться на это в production. Авторы также пытаются связать механизмы внимания в ИИ с динамикой нейронов в мозге. Идея неплохая, но всё сводится к тому, что мы пытаемся объяснить сложное через ещё более сложное. В итоге получаем MVP, которое обещает решить все проблемы, но требует постоянного допиливания. Они утверждают, что понимание основных принципов рассуждений может привести к созданию более надёжных и интерпретируемых систем ИИ. Что ж, посмотрим, как это всё будет работать на практике. Всегда найдутся edge-cases, которые сломают даже самую элегантную теорию. В итоге всё, что можно задеплоить, рано или поздно упадёт. Но, надо признать, умирает красиво.
Механика вылупления дракона: локальная динамика и перевзвешивание рёбер
Итак, очередная попытка построить искусственный интеллект, на этот раз вдохновлённый мозгом. Как будто мозг — это не тот же сложный, непредсказуемый код, который мы пытаемся упростить. В данном случае, авторы предлагают архитектуру BDH и BDH-GPU, основанную на сетях взаимодействующих частиц, якобы имитирующих нейроны. Они утверждают, что это позволит добиться разрежённых активаций и, возможно, даже эффективной реализации на нейроморфном железе. Звучит красиво, но я бы не стал делать ставки.
Масштабирование архитектуры BDH-GPU в зависимости от размерности.
Идея, конечно, не нова. Все эти попытки связать внимание в ИИ и нейронную динамику в мозге — это просто попытка найти оправдание для очередного слоя абстракции. Они утверждают, что понимание основных принципов рассуждений может привести к созданию более надёжных и интерпретируемых систем ИИ. Но давайте будем честны: любая абстракция умирает от продакшена. И да, эта архитектура демонстрирует конкурентоспособную производительность по сравнению с GPT2, а также обладает некоторой «эмерджентной модульностью». Но это лишь означает, что у нас появится ещё больше способов сломать её.
В конечном итоге, все эти разговоры о «микроосновах внимания и рассуждений» — это просто попытка создать иллюзию контроля над сложной системой. Они утверждают, что сосредоточение внимания на этих принципах может открыть новые возможности для развития ИИ и даже привести к более глубокому пониманию интеллекта. Но я бы предположил, что в конечном итоге всё это закончится тем, что мы получим ещё один сложный, непредсказуемый код, который сломается в самый неподходящий момент. Впрочем, красиво умирает.
Экспериментальная валидация: Эффективность, Интерпретируемость и Композиционность
Итак, они пытаются доказать, что их архитектура BDH – это прорыв. Как будто достаточно красиво описать принципы рассуждений, чтобы искусственный интеллект стал лучше. Наверняка, через месяц кто-то найдёт уязвимость в этих самых принципах. Это неизбежно.
Графическое представление взаимодействия нейронов, демонстрирующее линейное распространение сигналов.
Они утверждают, что их архитектура сопоставима с GPT2, но при этом обладает «эмерджентной модульностью» и «разреженными активациями». Звучит красиво, как спецификация к системе, которую никто не будет поддерживать. То есть, всё работает, пока не сломается. А потом, как обычно, «надо бы переписать». Главное, чтобы документации не было – меньше вопросов.
Авторы подчеркивают важность понимания «микро-основ» внимания и рассуждений. Что ж, да, если бы мы понимали, как работает мозг, может, и ИИ получился бы лучше. Но, боюсь, это очередная попытка «переизобрести велосипед», который сломается на первом же ухабе продакшена. Впрочем, кто знает, может, и повезёт. Хотя я в это не верю.
Они утверждают, что принципы работы мозга, основанные на локальных взаимодействиях и разреженных активациях, можно использовать для создания более эффективных и понятных моделей ИИ. Как будто достаточно скопировать принципы, чтобы получить результат. Всё это напоминает мне попытки создать «идеальный фреймворк», который через неделю устаревает. В любом случае, работа интересная, но я бы не стал на неё закладывать свои надежды. Всё, что можно задеплоить – однажды упадёт.
Каждая «революционная» технология завтра станет техдолгом.
— Сергей Соболев
Статья о Dragon Hatchling, как и многие другие о “революционных” архитектурах, неизбежно напоминает о тщетности наших инженерных устремлений. Мы гонимся за новизной, за биологической правдоподобностью, забывая, что любая, даже самая элегантная конструкция, обречена на увядание под натиском реальности продакшена. BDH может и предложит более эффективные вычисления, но в конечном итоге станет очередным слоем технического долга, требующим постоянного обслуживания. И это не критика авторов, а констатация факта: всё, что мы создаём, рано или поздно сломается, даже если умирает красиво.
Как и предсказывалось, очередная «революция» — лишь новый способ усложнить старые проблемы. Статья убедительно демонстрирует, что вдохновение можно черпать и из биологии, но не стоит забывать: любая абстракция обречена умереть от продакшена, пусть даже и красиво. Остаётся лишь гадать, когда и где эта элегантная архитектура падет под напором реальности, и стоит ли вообще искать «идеальный» ИИ, если всё, что можно задеплоить — однажды упадёт. Так не пора ли нам перестать строить замки из песка и задаться вопросом: а что, если главное — не масштабируемость, а просто работающая система?
Что дальше?
Всё, что обещает упростить жизнь, добавляет новый слой абстракции. И эта архитектура, как и все предыдущие, не исключение. Мы снова видим попытку вдохнуть жизнь в нейронные сети, на этот раз обращаясь к биологии. Но, как показывает опыт, вдохновение — это лишь отправная точка, а детали всегда прячутся в продакшене. Центральный вопрос, поднятый в этой работе, остаётся открытым: как добиться масштабируемости, не жертвуя при этом интерпретируемостью? Иначе говоря, как построить сложную систему, которую мы все еще сможем понять, когда она начнет ломаться?
В ближайшем будущем, я вижу два направления, которые могут стать особенно интересными. Во-первых, необходимо углубленное изучение динамики "вылупления дракона" – локальных взаимодействий и перевзвешивания рёбер – в контексте неопределённости. Все существующие модели предполагают статичную структуру связей. А что, если ключевым элементом является не просто наличие связей, а их динамическое изменение в ответ на входящие данные? Это потребует разработки новых методов анализа и визуализации, чтобы отследить эти изменения и понять, как они влияют на поведение сети. Во-вторых, необходимо исследовать возможности интеграции BDH с нейроморфным оборудованием не как с целевой платформой, а как с инструментом диагностики. Представьте, что мы можем "прощупать" сеть, используя нейроморфные чипы, чтобы выявить узкие места и аномалии в её работе. Это позволило бы нам не только оптимизировать производительность, но и лучше понять принципы её работы.
В конечном счете, все эти поиски – лишь попытка построить более сложные и хрупкие системы. Но, возможно, в этой погоне за совершенством мы хоть немного приблизимся к пониманию того, как работает мозг. И даже если нет, само это путешествие может быть интересным. Ведь даже сломанный код иногда умирает красиво. Главное помнить: всё, что можно задеплоить, однажды упадёт. Но важно, чтобы падение это было элегантным.
Это новый этап развития автономных технологий. Яндекс рассказал о новой технологии в мини-сериале YAC 2024. Нейросеть обучается на данных высококлассных водителей: она анализирует реальные ситуации на дорогах и реакции профессионалов на них. Таким образом система автономного транспорта распознает потенциальные опасности на дорогах и формирует сценарии реакции на них, даже если они еще не возникали в реальности.
Теперь автономный грузовик наверное еще и помигает вам, если вы его пропустите
7. **Корпус:** Набор для самостоятельной 3D-печати корпуса (файлы .STL) из различных материалов (PLA, PETG, нейлон) *или* готовый корпус из поликарбоната с металлическими вставками.
8. **Инструменты:** Набор прецизионных отверток, пинцет с антистатическим покрытием, приспособление для укладки шлейфов.
9. **Документация:**
* Полные принципиальные схемы и разводка PCB.
* Руководство по портированию AOSP (Android Open Source Project) и Linux.
* Дампы оригинальной прошивки, инструменты для разработки.
* Доступ к форуму и сообществу разработчиков.
**Сборка:** Требуются продвинутые навыки: пайка BGA-компонентов *не требуется*, но нужна аккуратность при сборке. Время сборки: 8-15 часов.
---
### **Универсальные улучшения для всех наборов:**
* **Мобильное приложение-инструктор:** Приложение с AR-режимом (дополненная реальность), которое через камеру планшета/телефона показывает, куда и какой компонент устанавливать.
* **Онлайн-платформа:** Форумы, видеоуроки, гит-репозитории с последними версиями прошивок и сообщество для помощи.
* **Модульность:** Возможность докупить дополнительные модули: тепловизор, лазерный дальномер, датчик качества воздуха, SDR-приемник.
* **Экологичность:** Использование перерабатываемых материалов для упаковки, программа приема старых наборов для утилизации.
Такой доработанный набор покрывает все сегменты энтузиастов — от школьников, изучающих электронику, до инженеров, экспериментирующих с аппаратным обеспечением следующего поколения.