G
enby!

Как градиенты и производные реально учат модель

📌 Заполни анкету прямо сейчас и получи чек-лист "15 самых популярных вопросов с собеседований и ответы на них" Анкета предзаписи: https://vk.cc/cO375f
Курс «База ML»: https://clck.ru/3NQBb6
Курс «ML в бизнесе»: https://clck.ru/3NQBd7
Telegram MLinside: https://t.me/+xPCRRLylQh5lMmI6
Ты слышал про градиенты и производные, но всё ещё не понимаешь, как они реально обучают модель? В этом видео — честное и простое объяснение, как работает обучение в машинном обучении. Без теоретической перегрузки, но с полной связкой: от функции потерь до обновления весов. Александр Дубейковский — эксперт по ML в бизнесе (3 года в Яндексе), выпускник ШАД, ментор и автор серии MLinside — объясняет, как производные, градиенты и шаг обучения превращаются в умные модели. В этом видео: • Что реально происходит при обучении модели • Как устроен градиентный спуск — простыми словами • Почему важен шаг обучения и как он влияет на результат • Как производные помогают находить оптимальные параметры • Почему даже обучение логрегрессии — это уже реальный ML Подходит тем, кто: • учит ML, но путается в математике • хочет понимать, что реально происходит «под капотом» моделей • готовится к собесам и хочет уметь объяснять обучение на пальцах Это часть серии MLinside — без мотивационного шума, только системно и по делу. Смотри до конца, если хочешь по-настоящему понять, как работает машинное обучение. Таймкоды: 00:00 – Зачем вообще нужны градиенты в ML 01:35 – Что такое производная: объяснение на пальцах 03:08 – Как градиент показывает, куда двигать веса 05:25 – Почему у loss-функции должен быть минимум 09:01 – Как работает градиентный спуск шаг за шагом

Смотрите также