Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Классический пинбол, как в древнем игровом автомате или в компактной игрушке: есть пружины, шарики и препятствия. В нашем варианте можно не только зарабатывать очки: чтобы пройти уровень, придется выполнить дополнительную миссию.

Пинбол Пикабу

Аркады, На ловкость, Казуальные

Играть

Топ прошлой недели

  • cristall75 cristall75 6 постов
  • 1506DyDyKa 1506DyDyKa 2 поста
  • Animalrescueed Animalrescueed 35 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
18
SlyVolunteer
SlyVolunteer
Наука | Научпоп

Ответ на пост «Функции потерь и алгоритмы оптимизации в линейной регрессии: обзор основных подходов»⁠⁠1

5 дней назад

Что такое функция потерь?

Перейти к видео

Что такое оптимизатор Adam?

Перейти к видео

Делаю такой клиповый курс «Что такое», где за 20 секунд объясняю термины по разработке нейросетей и искусственному интеллекту.

Если пост наберёт 30 плюсов, продолжу выкладывать другие клипы в сообществе «Наука | Научпоп».

Показать полностью 1
[моё] Научпоп Исследования Ученые Математика Машинное обучение Статистика Искусственный интеллект Roadmap Data Science Наука Видео Вертикальное видео Короткие видео Ответ на пост Длиннопост
11
8
RuslanSenatorov
RuslanSenatorov
Искусственный интеллект

Функции потерь и алгоритмы оптимизации в линейной регрессии: обзор основных подходов⁠⁠1

5 дней назад

Линейная регрессия — один из самых фундаментальных и широко применяемых методов в машинном обучении. Несмотря на простоту, её эффективность сильно зависит от двух ключевых компонентов:

  1. Функции потерь (loss function) — что именно мы минимизируем?

  2. Метода оптимизации (solver) — как мы ищем решение?

В этой статье мы разберём популярные функции потерь — MSE, MAE, Huber и Log-Cosh — их свойства, плюсы и минусы. А также покажем, как выбор функции потерь определяет выбор алгоритма оптимизации.

Почему функция потерь так важна?

Функция потерь измеряет, насколько предсказания модели отличаются от реальных значений. От её формы зависят:

  • Чувствительность к выбросам

  • Наличие замкнутого решения

  • Выпуклость задачи

  • Скорость и стабильность обучения

Давайте сравним четыре ключевые функции потерь в контексте линейной регрессии.

1. MSE (Mean Squared Error) — стандарт по умолчанию

  • Эквивалентна максимуму правдоподобия при нормальном шуме.

Замкнутое решение (метод наименьших квадратов):

Плюсы:

Выпуклая, гладкая, дифференцируемая → легко оптимизировать

Минусы:

  • Чувствительна к выбросам (ошибки возводятся в квадрат).

Solver:

  • Normal Equation (аналитическое решение)

  • SGD, SAG, LBFGS (в scikit-learn: solver='auto', 'svd', 'cholesky' и др.)

Когда использовать: когда данные «чистые», ошибки гауссовские, и важна интерпретируемость.

2. MAE (Mean Absolute Error) — робастная альтернатива

Плюсы:

  • Робастна к выбросам (ошибки в первой степени).

  • Минимизирует медиану ошибок (а не среднее).

Минусы:

  • Недифференцируема в нуле → нет аналитического решения.

  • Требует итеративных методов.

Solver:

  • Linear Programming (например, через симплекс-метод)

  • Subgradient Descent (в scikit-learn: QuantileRegressor с quantile=0.5)

Когда использовать: когда в данных есть аномалии или тяжёлые хвосты (например, цены, доходы).

3. Huber Loss — лучшее из двух миров

Плюсы:

  • Гладкая и дифференцируемая.

  • Робастна к выбросам (линейная штраф за большие ошибки).

  • Гибкость через параметр δδ.

Минусы:

  • Нужно настраивать δδ (часто выбирают как процентиль ошибок).

  • Нет замкнутого решения.

Solver:

  • Gradient Descent, LBFGS, Newton-CG(в scikit-learn: HuberRegressor с fit_intercept=True)

Когда использовать: когда вы подозреваете наличие выбросов, но хотите сохранить гладкость оптимизации.

4. Log-Cosh Loss — гладкая робастность

Плюсы:

  • Гладкая везде (бесконечно дифференцируема).

  • Ведёт себя как MSE при малых ошибках и как MAE при больших.

  • Устойчива к выбросам, но без «изломов».

Минусы:

  • Вычислительно дороже (логарифм и гиперболический косинус).

  • Не так распространена в классических библиотеках.

Solver:

  • Gradient-based методы: SGD, Adam, LBFGS(в TensorFlow/PyTorch легко реализуется; в scikit-learn — через кастомный регрессор)

Когда использовать:

  • когда вы ищете баланс между робастностью MSE и гладкостью MAE.

  • Вы хотите избежать чувствительности MSE к выбросам, но сохранить дифференцируемость.

  • Вы строите гибридную модель, где loss должен быть всюду гладким (например, для вторых производных).

Правило:

  • Если loss квадратичен → можно решить напрямую.

  • Если loss неквадратичен → нужен итеративный численный метод.

И помните: нет универсально «лучшей» функции потерь — только та, что лучше всего подходит вашим данным и задаче.

Показать полностью 7
[моё] Научпоп Исследования Ученые Математика Машинное обучение Статистика Искусственный интеллект Roadmap Data Science Наука Длиннопост
2
9
RuslanSenatorov
RuslanSenatorov
Искусственный интеллект

Как понять всё машинное обучение через линейную регрессию?⁠⁠

14 дней назад

Сердце всех ML алгоритмов это функция потерь, научившись её оптимизировать мы поймём как обучаются машины.

Дальше в посте, я опишу свойства функции среднеквадратичной ошибки (MSE), затем методы её оптимизации (аналитические, численные, стохастические и гибридные), укажу важные формулы, поведение градиента/Гессиана, оценки сходимости и практические рекомендации.

Основные свойства MSE

1. Дифференцируемость

MSE — гладкая (бесконечно дифференцируема) функция параметров для линейной модели она квадратичная — что сильно упрощает анализ.

2 Квадратичность и выпуклость

MSE — квадратичная функция, такая функция выпукла (всегда), а если X⊤X положительно определена (то есть признаки линейно независимы и строго выпукла и имеет единственный глобальный минимум.

Для нелинейных параметрических моделей выпуклость обычно не выполняется — могут быть локальные минимума.

3. Градиент и Гессиан

Гессиан положительно полуопределён. Его собственные значения управляют «кривизной» функции (вдоль направлений с большими э-величинами функция круто меняется).

4 Шкала, чувствительность к выбросам и статистическая интерпретация

MSE сильно чувствительна к выбросам (квадратичная зависимость даёт большим ошибкам непропорционально большой вклад).

Если ошибки в модели нормальны, то MSE (максимизация правдоподобия) соответствует MLE — минимизация MSE = максимизация нормального правдоподобия.

5. Аналитическое решение

Закрытая форма (normal equations).

6. Алгоритмы численной оптимизации

Градиентный спуск (Batch Gradient Descent)

7. Стохастический градиентный спуск (SGD) и мини-батчи

Стохастичность даёт возможность выйти из плохих локальных минимумов (для нелинейных задач).

8. Ускоренные и адаптивные методы

Momentum (classical momentum) — ускоряет спуск по узким долинам.

Nesterov Accelerated Gradient (NAG) — улучшенный momentum с теоретическими гарантиями.

Адаптивные алгоритмы: Adagrad, RMSProp, Adam, AdamW. Они подбирают адаптивный шаг для каждого параметра.

9. Второго порядка и квазиньютоновские методы

Newton’s method (использует Гессиан) Kвазиньютоновские: BFGS, L-BFGS Conjugate Gradient (CG) часто используют для ridge регрессии

10. Проксимальные и координатные методы (для регуляризации)

Coordinate Descent — особенно эффективен для L1-регуляризованных задач (LASSO), когда функция частично сепарабельна.

11. Прямые методы оптимизации

SVD, cholesky, QR

Обратите внимание что в посте вы не увидите саму модель линейной регресии, где мы точки прямой аппроксимируем, потому что это вообще неинтересно с точки зрения понимания моделей машинного обучения, интересно только сердце ML моделей - функция потерь.

Показать полностью 2
[моё] Научпоп Исследования Ученые Математика Машинное обучение Статистика Искусственный интеллект Roadmap Data Science Наука Длиннопост
0
7
RuslanSenatorov
RuslanSenatorov

Roadmap linear regression (Структура методов линейной регрессии)⁠⁠1

2 месяца назад
Roadmap linear regression (Структура методов линейной регрессии)

Линейная регрессия — один из базовых методов статистического анализа и машинного обучения, предназначенный для моделирования зависимости отклика (зависимой переменной) от одной или нескольких независимых переменных.

Данное дерево отражает иерархическую структуру основных видов линейной регрессии и методов решения задачи наименьших квадратов (МНК) — от аналитических к численным и итерационным.

Общая структура

На верхнем уровне различают три формы линейной регрессии:

  1. Простая линейная регрессия — частный случай множественной, когда используется одна независимая переменная.

  2. Множественная линейная регрессия — базовая форма, включающая несколько независимых переменных.

  3. Полиномиальная регрессия — частный случай множественной, в которой вектор признаков дополнен степенными преобразованиями исходных переменных.

Методы наименьших квадратов (МНК)

Решение задачи линейной регрессии сводится к минимизации функции ошибок (суммы квадратов отклонений между наблюдаемыми и предсказанными значениями).

В зависимости от подхода различают аналитические, численные и итерационные методы.

1. Аналитический метод (закрытая форма)

  • Применяется, когда матрица признаков имеет полную ранговую структуру и система допускает точное решение.

  • Решение выражается формулой:

    normal equation

  • Используется в простой и множественной линейной регрессии.

  • Базируется на нормальном уравнении.

2. Численные методы (приближённые)

  • Используются при больших объёмах данных или плохо обусловленных матрицах.

  • Основаны на разложениях матриц:

    • Сингулярное разложение (SVD)

    • QR-разложение

    • Разложение Холецкого

  • Обеспечивают численную устойчивость и более эффективные вычисления.

3. Итерационные методы

  • Применяются при очень больших данных, когда аналитическое решение невозможно вычислить напрямую.

  • Основной подход — градиентный спуск, при котором веса обновляются пошагово:

Особенности полиномиальной регрессии

Полиномиальная регрессия представляет собой множительную регрессию, где вектор признаков дополнен степенными функциями исходных переменных.
Хотя аналитическая форма возможна, на практике применяются численные методы, обеспечивающие стабильность и точность вычислений при высоких степенях полинома.


Взаимосвязь моделей

На схеме представлена визуальная взаимосвязь:

  • Простая регрессия — частный случай множественной.

  • Полиномиальная — частный случай множественной с расширенным базисом признаков.

  • Все три формы объединяются через метод наименьших квадратов.


Значимость статьи и вклад в Data Science

Представленный древовидный роадмап методов линейной регрессии является первой в истории попыткой системно и визуально объединить все формы линейной регрессии — простую, множественную и полиномиальную — через призму методов наименьших квадратов (МНК), включая аналитические, численные и итерационные подходы.

Традиционно в учебной и академической литературе методы линейной регрессии рассматриваются фрагментарно:

  • отдельно описываются простая и множественная регрессии,

  • разрозненно излагаются методы решения (нормальное уравнение, QR, SVD, градиентный спуск),

  • редко подчеркивается иерархическая связь между ними.

Разработанная структура впервые:

  1. Объединяет все виды линейной регрессии в едином древовидном представлении, где показаны отношения "частный случай – обобщение".

  2. Классифицирует методы МНК по принципу:

    • аналитические (точные, закрытая форма)

    • численные (разложения матриц)

    • итерационные (оптимизационные процедуры)

  3. Визуализирует связь между теориями линейной алгебры и машинного обучения, показывая, как фундаментальные методы (SVD, QR, Холецкий, градиентный спуск) вписываются в единую систему.

  4. Формирует когнитивную карту обучения — от интуитивных понятий к вычислительным и теоретическим аспектам, что делает её удобной как для студентов, так и для исследователей.


Научная и практическая новизна

  1. Впервые создана иерархическая модель линейной регрессии, отражающая связи между всеми основными вариантами и методами решения.

  2. Предложен универсальный визуальный формат (древовидный роадмап), который объединяет как статистическую, так и вычислительную перспективы анализа.

  3. Показано, что полиномиальная и простая регрессии являются не отдельными методами, а вложенными случаями множественной регрессии.

  4. Дана структурная типология МНК, которая ранее отсутствовала в учебных материалах и научных публикациях в таком виде.

  5. Работа имеет прикладную значимость для Data Science, так как облегчает построение ментальной модели всех алгоритмов регрессии и их реализации в библиотечных инструментах (NumPy, SciPy, scikit-learn).


Вклад в Data Science

  • Для практиков Data Science роадмап служит навигационной схемой:
    он показывает, какой метод выбрать в зависимости от типа задачи, объёма данных и требований к точности.

  • Для преподавателей и студентов он обеспечивает структурную основу обучения, позволяя переходить от интуитивного понимания к строгим математическим методам.

  • Для исследователей — даёт целостное представление об эволюции МНК и связи между аналитическими и численными методами, что важно при разработке новых алгоритмов оптимизации и регуляризации.


    До момента публикации не существовало единой визуальной структуры, описывающей всю иерархию методов линейной регрессии в рамках одной системы координат

Показать полностью
[моё] Научпоп Исследования Ученые Математика Машинное обучение Статистика Искусственный интеллект Roadmap Data Science Длиннопост
4
11
Аноним
Аноним

Искусственный интеллект на основе советских разработок⁠⁠

10 месяцев назад

"Панорама" "Панорамой", но считать советские разработки такими уж лапотными тоже не стоит.

Например, не считал их лапотными англичанин Тони Хоар - известный алгоритмист, автор знаменитой "быстрой сортировки". Поэтому он приехал учиться в МГУ.

Один из подходов в машинном обучении (искусственном интеллекте), который еще 20 лет назад считался передовым, не то что дурацкие устаревшие нейросети, - метод опорных векторов. Разработан Владимиром Наумовичем Вапником и Алексеем Яковлевичем Червоненкисом. Правда, до практического применения доведен уже когда они жили в США (Червоненкис впоследствии вернулся в Москву), но на основе наработок, сделанных ими еще в СССР.

Если расширить тему, примеров можно привести куда больше. Например, классические сбалансированные деревья - AVL-деревья. Сфера применения поуже, чем у красно-черных деревьев, но тоже используются. AVL - потому что авторы у них Георгий Максимович Адельсон-Вельский и Евгений Михайлович Ландис.

Как сравнивать графы? Подходы разные: Канторовича-Рубинштейна, Громова-Хаусдорфа, Васерштейна (Леонида Нисоновича).

Одно из главных нововведений Си++? Обобщенное программирование, реализованное в Си++ (в виде библиотеки STL) и разработанное несколько ранее для "Ады" Степановым. Правда, уже в США, но на основании его идей, придуманных еще в СССР. Кстати, Степанов тоже, как и Червоненкис, в старости перебрался на родину.

Применяются и диаграммы Вороного, и полиномы Чебышева, и регуляризация Тихонова. Кстати, последняя - важная часть машинного обучения. Например, пседообратная матрица Мура - Пенроуза также определяется через регуляризацию Тихонова.

Вернемся к машинному обучению и искусственному интеллекту. Мало того, что они основаны на теории вероятности, а отцом современной теории вероятности считается Колмогоров.

Искусственный интеллект на основе советских разработок

Не одним Колмогоровым. Взять, скажем, такие методы как HMM (скрытые марковские модели), или, если двигаться к более современным методам, CRF (условные случайные поля) и в конце концов некоторые LLM (БЯМы, например Bert) - восходит к работам Маркова.

Есть еще мутная история Руса Салахутдинова. Интерес к почти протухшей теме нейросетей в нулевых годах вернули Лекун и Хинтон. Хинтону как раз в 2024 году дали за это Нобелевскую премию. Его главный помощник - Руслан Салахутдинов. Другое дело, что биография Салахутдинова не афишируется, откуда он родом и где учился до американских вузов - неизвестно. Может, он к советским достижениям не имеет никакого отношения. Вероятно, не связан с советской наукой и Цыбенко, доказавший универсальную теорему аппроксимации - математическую основу всех этих нейросетей. Впрочем, параллельно подобное сделал и Колмогоров, из-за чего теорему иногда в западной литературе называют Cybenko-Kolmogorov. Не учился и не работал в СССР/РФ и Илья Ефимович Суцкевер, возможно и Алекс Крижевский (создатели OpenAI и AlexNet).

Зато отцом глубокого обучения считается Алексей Григорьевич Ивахненко, опубликовавший свою книгу о многослойных сетях еще в 1965 году (в США - двумя годами позднее).

Так что хотя китайцы, конечно, не опирались на "код советского интернета, разработанного Глушковым", самоуничижение тоже неуместно. Советские разработки в математике, информатике и непосредственно в машинном обучении и даже именно нейросетях внесли не самый существенный, но весьма заметный вклад.

Последние десятилетия с этим стало похуже, но связано это со зрелостью технологий машинного обучения и невообразимым отставанием российской электроники и финансовых трудностях. Прорывные методы больше не основаны на свежих фундаментальных открытиях, теоремах: это эвристические приемы, которые могут сработать, но гораздо чаще не работают. Успех приходит после многочисленных проб и ошибок на больших вычислительных кластерах. Три года назад российские фирмы и тем более НИИ не могли себе такое позволить финансово. Сейчас - еще и из-за эмбарго. Так что да, если в скором будущем мы услышим новые русские фамилии, связанные с успехами искусственного интеллекта, скорее всего, эти русские будут работать в западных компаниях и университетах. Но это не значит, что в СССР или современной России плохие разработки ИИ.

Показать полностью 1
Нейронные сети Искусственный интеллект Родина слонов Россия Машинное обучение Математика Длиннопост
1
sadr0b0t

Нумерологи, как и физики, строят прогнозные модели действительности⁠⁠

2 года назад

в форме математических закономерностей перетекания одних чисел, проявляющих себя на поверхности явлений, в другие.

Но если физики силятся не потерять связь с глубинной сущностью наблюдаемых явлений, увязывая численные результаты с рассуждениями о цепочках причинно-следственных связей или давая другие интерпретации числам в понятиях за пределами языка математики, то нумерологи полностью отбрасывают эту связь как несущественный элемент анализа, отдавая всё внимание математическим закономерностям внутри рассматриваемых числовых рядов.

Наивысшего технологического развития нумерология достигла в 21-м веке в форме

инструментов построения прогнозных математических моделей на основе больших массивов данных, или, по-простому, в форме технологий бигдаты и ML.

короткая версия: дата саентисты — современные нумерологи.

[моё] Наука Научпоп Большие данные Машинное обучение Нумерология Физика Математика Текст
1
14
Yakoryak

Вопросы о научной карьере⁠⁠

3 года назад

Здравствуйте дорогие пикабушники.
Заранее предупреждаю, никакого отношения к текущим событиям в сфере политики не имею,аккаунт не консерва,а старый благополучно забытый акк с неизвестно какой целью ранее созданный. Просто за многие годы я так и не решался чего нибудь запостить или даже просто комментировать.
А теперь к сути дела. Я к сожалению не знаю у кого тут такие вопросы спрашивать поэтому просто пилю пост. Также прошу не сильно пинать,увы,у меня диагноз синдром Аспергера (F84.5),а поэтому я бываю буквальным,могу не понимать каких то правил,ну и здешние процедуры мне малознакомы.
Я занимаюсь исследованиями в области машинного обучения,обработки естественного языка и вопросами машинного сознания,на текущий момент тружусь над вопросами разработки мультимодальных нейронных сетей с динамически изменяемой структурой. Это в действительности любимая работа для меня (например мало с чем можно сравнить радость от того как ты в действительности видишь прогресс,то как ты видишь что твоя система обучается как надо). Но у меня есть одна заковыка во всем этом. Я работаю над исследованиями самостоятельно,и разумеется все это я делаю за свой счет (главным образом оборудование,ну а что видеокарты нынче стоят как почка все и так знают) - это первое. Во вторых,в моем текущем окружении я крайне часто встречаюсь с саботажем моих усилий (моим нынешним преподавателям всегда было крайне неприятно когда студент и сам может завалить горе-педагога на его же экзаменах,но конечно же,не все таковы),встречаюсь с нежеланием университетского руководства что либо делать с печальной ситуацией в организации (статьи им подавай,а вот как ты это будешь делать уже никого не колышет,а я хреновые или сырые работы из принципа не публикую). Я тем не менее все равно продолжаю клеить свои системы,писать научные статьи о новых придуманных мной архитектурах потихоньку в одиночку. И отсюда проистекает важное но:
я работая в этой области (я на текущий момент студент,исследователь и преподаватель в одном лице), делая публикации много раз натыкался на недобросовестное рецензирование статей (был случай когда во вшивый журнал из РИНЦ меня рецензент отправил в пешее эротическое придравшись к словам о значении которых он не догадывался,но зато на австралийской конференции англоязычный вариант приняли со свистом) я понимаю что в России на пути может оказаться чрезвычайно много препон а поэтому я подыскиваю возможности выезда из России куда нибудь еще дабы попробовать себя и там. Я решил на шару написать пока пост сюда,ибо много раз был свидетелем многогранности сообщества пикабу. И так вопрос - есть ли здесь кто нибудь из моей области исследований (машинное обучение,искусственный интеллект,машинное сознание,вычислительная математика,матанализ)? Если есть(хотя любой совет может оказаться неожиданно полезным,так что слушаю любых людей из академической среды РФ) то такой вам вопрос - что вы можете посоветовать мне потенциально сделать в моей ситуации (ситуация следующая: Временно заперт в своем университете, из-за нехорошей славы университета публикации часто не удается сделать,очень много людей которые очень хотят ни черта не делать и выйти в соавторы,преподаю математику,мат логику и основы практического машинного обучения в своем же университете и в местной шараге. Ситуация кажется мне нехорошей из-за того что на финансирование исследований и качество работ заливается болт + ко всему среди персонала университета часто встречаются люди с совершенно нездоровой тягой к впихиванию в статьи прикладной части которая выглядит по идиотски(ей богу,порой даже на peer-review отправить стыдно),несмотря на то что все исследование исполнялось как фундаментальное и о немедленном приложении речи не шло. Ну вот по этому поводу и хочу узнать у вас,дамы и господа. Куда можете посоветовать податься в нашей стране или за рубежом (не важно,важно чтобы работать было можно как следует)? Если что - я уже заканчивающий бакалавр 4 курс (специальность - прикладная информатика),магистратуры нет, есть только публикации,все необходимое для работы с продвинутыми интеллектуальными системами я изучил сам (слава libgen'у и сайтам для добычи полных версий научных статей). Идея об отъезде за рубеж родилась из моего общения с моей коллегой и подругой из Питтсбурга.
Также сразу же хочу спросить любых людей читающих сей пост - не будет ли вам интересно если бы я начал публиковать собственные посты о состоянии машинного обучения с простыми (по возможности) объяснениями,применимости этих технологий и всякое такое,у меня скопилась большая выборка хороших,годных материалов собственного написания по этой теме (в конце концов,я преподаю,а такие дисциплины с полоборота закатать студентам сложно без хорошего предварительного объяснения)?
Извиняюсь за возможно странные формулировки - пожалуйста пните меня и уточните что я имел ввиду. Сразу заранее извиняюсь за возможно допущенные грамматические ошибки,просто за последние годы английский язык стал для меня роднее русского.
Спасибо всем за внимание.
Всем мира,любви и счастья, дорогие друзья.

Показать полностью
Математика Наука Искусственный интеллект Машинное обучение Карьера Текст
10
56
Sciberia
Sciberia
Искусственный интеллект

Нейронные сети. Формулы обратного распространения⁠⁠

4 года назад

Представляем заключительную лекцию из курса по нейронным сетям от 3blue1brown. В этой лекции речь пойдет о формулах обратного распространения. Одной из важных тем, которая позволит разобраться с основными моментами дифференцирования сложных функций в контексте сетей.

https://www.youtube.com/watch?v=rP_k8cpsNWY&featu=..

Благодарим за создание выпуска:

Переводчика – Федора Труфанова;

Редактора – Михаила Коротеева;

Диктора – Никифора Стасова;

Монтажера – Олега Жданова

Показать полностью
[моё] 3blue1brown Sciberia Нейронные сети Информатика Программирование Математика Машинное обучение Алгоритм Видео
6
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии