Bias-variance tradeoff в анализе данных и реальной жизни. Максим Николаев, Школа анализа данных

  Рет қаралды 2,233

Компьютерные науки

Компьютерные науки

Жыл бұрын

Лекция «Bias-variance tradeoff. Почему мы любим спрашивать совета у профессионалов» на Дне открытых дверей Школы анализа данных в Санкт-Петербурге, 22 апреля 2023 года.
Лектор: Максим Николаев, координатор партнерского направления Яндекса «Науки о данных» на факультете МКН СПбГУ, преподаватель статистики и ML.
С переобучением и недообучением модели сталкивается всякий, кто интересуется анализом данных и машинным обучением. В этой лекции мы разберемся, как описать эти явления в терминах смещения и дисперсии предсказания, узнаем, как связаны эти понятия со способностью модели выучивать обучающую выборку, а также увидим, как улучшить качество предсказания, умело ограничивая выразительность модели. Кроме этого мы обсудим, почему мы сами являемся частью модели, которую обучаем, и как контролировать наше переобучение.
Слайды и код для генерации графиков доступен по ссылке: disk.yandex.ru/d/b2rOMFWfsqqBLA
Поступайте в ШАД: clck.ru/34Es6e

Пікірлер: 3
@dmitrypenzar5229
@dmitrypenzar5229 Жыл бұрын
Крутая лекция! Особенно понравилось начальные 45 минут введения в тему, возьму на вооружение для своих лекций. Понятнее, чем как я это студентам объяснял. Ну и отдельный лайк за hippo:)
@user-hu6qr7pr1d
@user-hu6qr7pr1d Жыл бұрын
А вот и план лекции: 0:00 Введение 1:08 Задача предсказания 5:36 Качество предсказания 10:22 Условное математическое ожидание 16:10 Пример с большими данными 21:06 Что делать с маленькими данными? 27:58 Зависимость предсказаний от обучающей выборки 32:32 Смещение и дисперсия предсказания 38:03 Bias-variance разложение 39:44 Переобучение и недообучение 45:34 Bias-variance tradeoff 54:18 Регуляризация 59:55 Исследователь - часть модели 1:08:16 Регуляризация исследователя 1:11:35 Почему мы любим спрашивать совета у профессионалов? 1:13:50 Берегись гиппопотама 1:19:47 Забираем домой
@zubrz
@zubrz 10 ай бұрын
Зря не рассказываете ещё также про режим overparametrization и double descent; и отдельно ещё про эффект grokking
Лекция 1 4
8:40
Дмитрий Ожигин
Рет қаралды 1
TRY NOT TO LAUGH 😂
00:56
Feinxy
Рет қаралды 12 МЛН
DELETE TOXICITY = 5 LEGENDARY STARR DROPS!
02:20
Brawl Stars
Рет қаралды 16 МЛН
PINK STEERING STEERING CAR
00:31
Levsob
Рет қаралды 19 МЛН
03. Дикуссия «Ближайшее будущее диффузионных моделей»
42:41
Очередь и стэки. Иммутабельность и персистентность
1:39:55
Bias Variance Tradeoff Explained!
9:45
CodeEmporium
Рет қаралды 5 М.
Смещение, разброс и ошибка данных
10:26
Центр digital профессий ITtensive
Рет қаралды 1,6 М.
7  ПАРАДОКСОВ БЕСКОНЕЧНОСТИ
36:02
Mathin
Рет қаралды 340 М.
ML Party Yerevan - 2 марта 2023
3:12:16
Компьютерные науки
Рет қаралды 3 М.
ПОКУПКА ТЕЛЕФОНА С АВИТО?🤭
1:00
Корнеич
Рет қаралды 1,4 МЛН
Bluetooth Desert Eagle
0:27
ts blur
Рет қаралды 6 МЛН
сюрприз
1:00
Capex0
Рет қаралды 1,3 МЛН