Линейная регрессия. Что внутри sklearn? Зачем градиентный спуск? Что спросят на собеседовании? ч.2
Канал в tg: https://t.me/start_ds
00:00 - Про первую часть 00:25 - План видео 00:35 - Reminder первой части 01:43 - Как считается решение линейной регрессии в sklearn? 04:55 - Можно ли посчитать аналитическое решение с регуляризацией? 05:40 - Как находится оптимизационное решение (градиентный спуск)? 08:37 - Пара слов про стохастический градиентный спуск 09:15 - Каковы самые популярные реализации линейной регрессии? 10:22 - Можно ли из линейной регрессии сделать нелинейную? Статья Александра Дьяконова: https://dyakonov.org/2019/10/31/линей...
Про LAPACK: http://www.netlib.org/lapack/lug/node...
Лекция Константина Воронцова: • Машинное обучение. Многомерная линейная ре... (которая почему-то названа другим именем) Разделяй и встаствуй в SVD основан на: https://en.wikipedia.org/wiki/Divide-...
Ноутбук с реализацией градиентного спуска: https://www.kaggle.com/residentmario/...
Документация sklearn.linear_model: https://scikit-learn.org/stable/modul...