G
enby!

Почему из 1% получается 16,7%. Как интуитивно понять Теорему Байеса

📌 Заполни анкету прямо сейчас и получи чек-лист «15 самых популярных вопросов с собеседований и ответы на них» Анкета предзаписи: https://vk.cc/cO375f
Курс «База ML»: https://clck.ru/3Ntnaj
Курс «ML в бизнесе»: https://clck.ru/3Ntnfx
Telegram MLinside: https://t.me/+xPCRRLylQh5lMmI6
Вероятность теста показала, что вы больны, но реально шанс — всего 16,7%. Почему так? Ответ даёт теорема Байеса — фундаментальный закон вероятностей и одно из ключевых понятий машинного обучения. Без неё невозможно понять ни классификаторы, ни байесовскую оптимизацию, ни работу генеративных моделей. Александр Дубейковский — ML-эксперт (3 года в Яндекс.Такси, сейчас Авито) — простыми словами объясняет, как работает теорема Байеса и почему её нужно понимать каждому ML-инженеру. В этом видео: • Интуитивное объяснение теоремы Байеса на примере медицинского теста • Как априорные вероятности меняются с появлением новых данных • Байесовская оптимизация: умный способ подбора гиперпараметров • Наивный байесовский классификатор и где он реально работает • Байесовский инференс: как объединять предсказания модели с априорными знаниями • Почему генеративные модели тоже используют байесовские подходы Подходит тем, кто: • готовится к собеседованию в Data Science / ML • учит теорию вероятностей и хочет понимать её применение • строит модели и хочет объяснять их работу, а не просто запускать fit/predict Это часть серии MLinside — честно, по делу и без лишней воды. Таймкоды: 00:00 — Пример с медицинским тестом: где возникает путаница в вероятностях 00:44 — Ввод событий A и B: болезнь и положительный тест 01:25 — Формула теоремы Байеса простыми словами 02:29 — Подсчёт вероятности: почему из 1% получается только 16,7% 03:41 — Байесовская оптимизация: умный перебор гиперпараметров 06:39 — Наивный байесовский классификатор и его ограничения 08:03 — Байесовские подходы в ML: инференс, регуляризация, генеративные модели

Смотрите также