Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр У самурая нет цели — есть лишь путь. Долгий и бесконечный. С каждым шагом, оттачивая мастерство, он движется всё дальше вперёд.

Долгий путь: idle

Кликер, Ролевые, Фэнтези

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
8
RuslanSenatorov
RuslanSenatorov
Искусственный интеллект

Как понять всё машинное обучение через линейную регрессию?⁠⁠

4 дня назад

Сердце всех ML алгоритмов это функция потерь, научившись её оптимизировать мы поймём как обучаются машины.

Дальше в посте, я опишу свойства функции среднеквадратичной ошибки (MSE), затем методы её оптимизации (аналитические, численные, стохастические и гибридные), укажу важные формулы, поведение градиента/Гессиана, оценки сходимости и практические рекомендации.

Основные свойства MSE

1. Дифференцируемость

MSE — гладкая (бесконечно дифференцируема) функция параметров для линейной модели она квадратичная — что сильно упрощает анализ.

2 Квадратичность и выпуклость

MSE — квадратичная функция, такая функция выпукла (всегда), а если X⊤X положительно определена (то есть признаки линейно независимы и строго выпукла и имеет единственный глобальный минимум.

Для нелинейных параметрических моделей выпуклость обычно не выполняется — могут быть локальные минимума.

3. Градиент и Гессиан

Гессиан положительно полуопределён. Его собственные значения управляют «кривизной» функции (вдоль направлений с большими э-величинами функция круто меняется).

4 Шкала, чувствительность к выбросам и статистическая интерпретация

MSE сильно чувствительна к выбросам (квадратичная зависимость даёт большим ошибкам непропорционально большой вклад).

Если ошибки в модели нормальны, то MSE (максимизация правдоподобия) соответствует MLE — минимизация MSE = максимизация нормального правдоподобия.

5. Аналитическое решение

Закрытая форма (normal equations).

6. Алгоритмы численной оптимизации

Градиентный спуск (Batch Gradient Descent)

7. Стохастический градиентный спуск (SGD) и мини-батчи

Стохастичность даёт возможность выйти из плохих локальных минимумов (для нелинейных задач).

8. Ускоренные и адаптивные методы

Momentum (classical momentum) — ускоряет спуск по узким долинам.

Nesterov Accelerated Gradient (NAG) — улучшенный momentum с теоретическими гарантиями.

Адаптивные алгоритмы: Adagrad, RMSProp, Adam, AdamW. Они подбирают адаптивный шаг для каждого параметра.

9. Второго порядка и квазиньютоновские методы

Newton’s method (использует Гессиан) Kвазиньютоновские: BFGS, L-BFGS Conjugate Gradient (CG) часто используют для ridge регрессии

10. Проксимальные и координатные методы (для регуляризации)

Coordinate Descent — особенно эффективен для L1-регуляризованных задач (LASSO), когда функция частично сепарабельна.

11. Прямые методы оптимизации

SVD, cholesky, QR

Обратите внимание что в посте вы не увидите саму модель линейной регресии, где мы точки прямой аппроксимируем, потому что это вообще неинтересно с точки зрения понимания моделей машинного обучения, интересно только сердце ML моделей - функция потерь.

Показать полностью 2
[моё] Научпоп Исследования Ученые Математика Машинное обучение Статистика Искусственный интеллект Roadmap Data Science Наука Длиннопост
0
user11249120
user11249120
Лига программистов

RoadMap .NET⁠⁠

1 месяц назад
полноценный .NET RoadMap охватывающий большую его часть

полноценный .NET RoadMap охватывающий большую его часть

🚀 .NET Developer Roadmap 2025: Твой путь к успеху!

Только что изучил огромную дорожную карту .NET-разработчика на 2025 год, и она впечатляет масштабом! 💡

От основ C# до микросервисов, облачных технологий и ML.NET — это полноценный гайд для тех, кто хочет стать профессионалом.

Ключевые направления:

▪️ Основы: C#, SQL, Git, алгоритмы

▪️ ASP.NET Core: Web API, MVC, Blazor

▪️ Базы данных: PostgreSQL, MongoDB, Redis

▪️ Тестирование: xUnit, NUnit, Moq

▪️ Облака: Azure, AWS, Docker, Kubernetes

▪️ CI/CD: GitHub Actions, TeamCity, Jenkins

Самое крутое — roadmap показывает, что учить поэтапно. Не нужно хвататься за всё сразу!

Сохраняй и делись с теми, кто начинает свой путь в .NET! 📌

ВЗЯЛ С ТЕЛЕГРАМ КАНАЛА - https://t.me/easyprogers

Показать полностью 1
[моё] Python Roadmap Программирование Программист Программа Длиннопост
2
7
RuslanSenatorov
RuslanSenatorov

Roadmap linear regression (Структура методов линейной регрессии)⁠⁠1

1 месяц назад
Roadmap linear regression (Структура методов линейной регрессии)

Линейная регрессия — один из базовых методов статистического анализа и машинного обучения, предназначенный для моделирования зависимости отклика (зависимой переменной) от одной или нескольких независимых переменных.

Данное дерево отражает иерархическую структуру основных видов линейной регрессии и методов решения задачи наименьших квадратов (МНК) — от аналитических к численным и итерационным.

Общая структура

На верхнем уровне различают три формы линейной регрессии:

  1. Простая линейная регрессия — частный случай множественной, когда используется одна независимая переменная.

  2. Множественная линейная регрессия — базовая форма, включающая несколько независимых переменных.

  3. Полиномиальная регрессия — частный случай множественной, в которой вектор признаков дополнен степенными преобразованиями исходных переменных.

Методы наименьших квадратов (МНК)

Решение задачи линейной регрессии сводится к минимизации функции ошибок (суммы квадратов отклонений между наблюдаемыми и предсказанными значениями).

В зависимости от подхода различают аналитические, численные и итерационные методы.

1. Аналитический метод (закрытая форма)

  • Применяется, когда матрица признаков имеет полную ранговую структуру и система допускает точное решение.

  • Решение выражается формулой:

    normal equation

  • Используется в простой и множественной линейной регрессии.

  • Базируется на нормальном уравнении.

2. Численные методы (приближённые)

  • Используются при больших объёмах данных или плохо обусловленных матрицах.

  • Основаны на разложениях матриц:

    • Сингулярное разложение (SVD)

    • QR-разложение

    • Разложение Холецкого

  • Обеспечивают численную устойчивость и более эффективные вычисления.

3. Итерационные методы

  • Применяются при очень больших данных, когда аналитическое решение невозможно вычислить напрямую.

  • Основной подход — градиентный спуск, при котором веса обновляются пошагово:

Особенности полиномиальной регрессии

Полиномиальная регрессия представляет собой множительную регрессию, где вектор признаков дополнен степенными функциями исходных переменных.
Хотя аналитическая форма возможна, на практике применяются численные методы, обеспечивающие стабильность и точность вычислений при высоких степенях полинома.


Взаимосвязь моделей

На схеме представлена визуальная взаимосвязь:

  • Простая регрессия — частный случай множественной.

  • Полиномиальная — частный случай множественной с расширенным базисом признаков.

  • Все три формы объединяются через метод наименьших квадратов.


Значимость статьи и вклад в Data Science

Представленный древовидный роадмап методов линейной регрессии является первой в истории попыткой системно и визуально объединить все формы линейной регрессии — простую, множественную и полиномиальную — через призму методов наименьших квадратов (МНК), включая аналитические, численные и итерационные подходы.

Традиционно в учебной и академической литературе методы линейной регрессии рассматриваются фрагментарно:

  • отдельно описываются простая и множественная регрессии,

  • разрозненно излагаются методы решения (нормальное уравнение, QR, SVD, градиентный спуск),

  • редко подчеркивается иерархическая связь между ними.

Разработанная структура впервые:

  1. Объединяет все виды линейной регрессии в едином древовидном представлении, где показаны отношения "частный случай – обобщение".

  2. Классифицирует методы МНК по принципу:

    • аналитические (точные, закрытая форма)

    • численные (разложения матриц)

    • итерационные (оптимизационные процедуры)

  3. Визуализирует связь между теориями линейной алгебры и машинного обучения, показывая, как фундаментальные методы (SVD, QR, Холецкий, градиентный спуск) вписываются в единую систему.

  4. Формирует когнитивную карту обучения — от интуитивных понятий к вычислительным и теоретическим аспектам, что делает её удобной как для студентов, так и для исследователей.


Научная и практическая новизна

  1. Впервые создана иерархическая модель линейной регрессии, отражающая связи между всеми основными вариантами и методами решения.

  2. Предложен универсальный визуальный формат (древовидный роадмап), который объединяет как статистическую, так и вычислительную перспективы анализа.

  3. Показано, что полиномиальная и простая регрессии являются не отдельными методами, а вложенными случаями множественной регрессии.

  4. Дана структурная типология МНК, которая ранее отсутствовала в учебных материалах и научных публикациях в таком виде.

  5. Работа имеет прикладную значимость для Data Science, так как облегчает построение ментальной модели всех алгоритмов регрессии и их реализации в библиотечных инструментах (NumPy, SciPy, scikit-learn).


Вклад в Data Science

  • Для практиков Data Science роадмап служит навигационной схемой:
    он показывает, какой метод выбрать в зависимости от типа задачи, объёма данных и требований к точности.

  • Для преподавателей и студентов он обеспечивает структурную основу обучения, позволяя переходить от интуитивного понимания к строгим математическим методам.

  • Для исследователей — даёт целостное представление об эволюции МНК и связи между аналитическими и численными методами, что важно при разработке новых алгоритмов оптимизации и регуляризации.


    До момента публикации не существовало единой визуальной структуры, описывающей всю иерархию методов линейной регрессии в рамках одной системы координат

Показать полностью
[моё] Научпоп Исследования Ученые Математика Машинное обучение Статистика Искусственный интеллект Roadmap Data Science Длиннопост
4
1024
DELETED

Сборник Roadmap по самым распространённым направлениям в IT⁠⁠

2 года назад

самое важное после определения цели составить план и начать действовать, если вы учите что то из списка то план за вас расписали, остаётся только действовать

• cybersecurity: https://roadmap.sh/cyber-security

• Frontend: https://roadmap.sh/frontend

• Backend: https://roadmap.sh/backend

• Devops: https://roadmap.sh/devops

• ReactJS: https://roadmap.sh/react

• Android: https://roadmap.sh/android

• Angular: https://roadmap.sh/angular

• Python: https://roadmap.sh/python

• Golang: https://roadmap.sh/golang

• Java: https://roadmap.sh/java

• С++: developer:https://roadmap.sh/cpp

• JS: https://roadmap.sh/javascript

• SQL: https://roadmap.sh/sql

• Docker Roadmap:https://roadmap.sh/docker

• MongoDB: https://roadmap.sh/docker

больше базы в нашем тг

Показать полностью
[моё] IT Roadmap Пентест Информационная безопасность Текст Подборка Backend Frontend Python
140
Proglair
Proglair

Как стать DevOps-инженером в 2022 году: дорожная карта⁠⁠

3 года назад
Как стать DevOps-инженером в 2022 году: дорожная карта

Больше полезного в нашем телеграм-канале

Программирование DevOps Linux Python IT Программист Разработка Roadmap
11
2709
DELETED
IT-юмор

Эволюция сетевых инженеров⁠⁠

4 года назад
Эволюция сетевых инженеров
IT Юмор Сети Эволюция Развитие Cisco Mikrotik D-Link Tp-link Juniper Картинка с текстом Roadmap Keenetik Сетевые инженеры
635
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии