Лекция 2.3: Логистическая регрессия.

  Рет қаралды 16,813

Deep Learning School

Deep Learning School

3 жыл бұрын

Занятие ведёт Григорий Лелейтнер.
Ссылки на все части:
1. • Лекция 2.1: Линейная р...
2. • Лекция 2.2: LogLoss.
4. • Лекция 2.4: Градиентны...
5. • Лекция 2.5: Регуляриза...
6. • Лекция 2.6: Нормализация.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Пікірлер: 16
@igorgordiy7709
@igorgordiy7709 2 жыл бұрын
Просто чудесная лекция, все максимально доходчиво! Спасибо большое!
@grigoryredko7814
@grigoryredko7814 10 ай бұрын
Отличное видео, спасибо!
@taygindk2733
@taygindk2733 3 жыл бұрын
Круто! Максимально доходчиво
@user-zx7os2ox3e
@user-zx7os2ox3e 3 жыл бұрын
Спасибо, очень понятно!
@user-st5vj8xk2f
@user-st5vj8xk2f 3 жыл бұрын
5:06 Иногда встречаю среднее значение функции потерь. В чем их отличие, и нужно ли усреднять ее?
@user-nw2cr4cq9p
@user-nw2cr4cq9p 3 жыл бұрын
Лучшего объяснения я еще не слышал
@whhll1478
@whhll1478 Жыл бұрын
Сейчас,я смотрю это в 2 часа ночи. Я все понял. До этого я смотрел днём, тогда я мало что понял. Кто-нибудь, ответьте мне завтра, чтобы я не забыл все этого законспектировать
@user-tv2sp4xs8k
@user-tv2sp4xs8k Жыл бұрын
Разве при у = 0 второе слагаемое не обращается в вероятность единичного класса ( автор сказал наоборот - нулевой класс )?
@user-vf8bv4ug2s
@user-vf8bv4ug2s 3 жыл бұрын
А как высчитываются веса для элементов логита?
@fernandojoseph352
@fernandojoseph352 3 жыл бұрын
@Jaiden Kalel Definitely, I have been using flixzone} for since november myself :D
@patrickluka8513
@patrickluka8513 3 жыл бұрын
@Jaiden Kalel Definitely, I have been watching on Flixzone} for months myself =)
@user-yn7bp4sf4j
@user-yn7bp4sf4j 2 жыл бұрын
Такой же вопрос, не понятно
@user-yn7bp4sf4j
@user-yn7bp4sf4j 2 жыл бұрын
Если узнал, не мог бы поделиться инфой?
@user-iz5lj1vv1r
@user-iz5lj1vv1r 2 жыл бұрын
@@user-yn7bp4sf4j Я так понимаю, что нужно минимизировать фукцию потерь логистической регрессии для каждого из m классов, т.е. при Y=1, при Y=2 и т.д. А когда найдёте минимум для конкретного класса, как раз найдутся весовые коэффициенты для этого класса.
@IgorBio
@IgorBio 4 ай бұрын
Мда этот товарищ обучает сберчат, грустно. Грустно, потому что неумение простыми словами объяснить сложные концепции человеку, вряд ли не скажется на качестве обучения машины
@ptreeful
@ptreeful 2 жыл бұрын
Нихрена непонятно
Sigma Girl Education #sigma #viral #comedy
00:16
CRAZY GREAPA
Рет қаралды 114 МЛН
Лекция 2.1: Линейная регрессия.
19:42
Deep Learning School
Рет қаралды 51 М.
Лекция. Сверточные нейронные сети
50:11
Deep Learning School
Рет қаралды 51 М.
Введение в анализ данных, лекция 9 - логистическая регрессия
1:17:41
ФКН ВШЭ — дистанционные занятия
Рет қаралды 3,2 М.
Математика #1 | Корреляция и регрессия
18:32
Лекция. Решающие деревья
31:13
Deep Learning School
Рет қаралды 29 М.
Лекция 8. Линейная регрессия
1:10:53
Computer Science Center
Рет қаралды 49 М.