Добавить
Уведомления

#8. Стохастический градиентный спуск SGD и алгоритм SAG | Машинное обучение

Практический курс по ML на Stepik: https://stepik.org/course/209247/ Суть стохастических алгоритмов при оптимизации эмпирического риска. Рассматривается классический алгоритм Stochastic Gradient Descent (SGD, Роббинса-Монро) и Stochastic Average Gradient (SAG). Инфо-сайт: https://proproprogs.ru/ml Телеграм-канал: https://t.me/machine_learning_selfedu Градиентный алгоритм: https://www.youtube.com/watch?v=OKeZEbJgQKc&list=PLA0M1Bcd0w8yZNgl5J814WQykTZnzj771&index=3

12+
1,12 тыс. просмотров
2 года назад
12+
1,12 тыс. просмотров
2 года назад

Практический курс по ML на Stepik: https://stepik.org/course/209247/ Суть стохастических алгоритмов при оптимизации эмпирического риска. Рассматривается классический алгоритм Stochastic Gradient Descent (SGD, Роббинса-Монро) и Stochastic Average Gradient (SAG). Инфо-сайт: https://proproprogs.ru/ml Телеграм-канал: https://t.me/machine_learning_selfedu Градиентный алгоритм: https://www.youtube.com/watch?v=OKeZEbJgQKc&list=PLA0M1Bcd0w8yZNgl5J814WQykTZnzj771&index=3

, чтобы оставлять комментарии