Лекция 2.4: Градиентный спуск.

  Рет қаралды 19,759

Deep Learning School

Deep Learning School

Күн бұрын

Занятие ведёт Григорий Лелейтнер.
Ссылки на все части:
1. • Лекция 2.1: Линейная р...
2. • Лекция 2.2: LogLoss.
3. • Лекция 2.3: Логистичес...
5. • Лекция 2.5: Регуляриза...
6. • Лекция 2.6: Нормализация.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Пікірлер: 9
@gothluv4740
@gothluv4740 8 ай бұрын
объяснил суть производной и для чего она лучше чем учителя в школе и преподы в универе
@user-is3kd9ye9h
@user-is3kd9ye9h 3 жыл бұрын
11:20 Почему внутри суммы (сигма большая) не ставите скобки? Ведь вычитаемое входит в сумму и суммируется по i. А у вас оно отпадает от суммы.
@anton8682
@anton8682 3 жыл бұрын
Здравствуйте, откуда на 11:40 взялось x_ij?
@nikolaikrot8516
@nikolaikrot8516 3 жыл бұрын
На этом слайте "Градиентный спуск для логистической регрессии" 10:59 (kzfaq.info/get/bejne/j72iZrZirtfSnIU.html) все в порядке со знаками?
@datascience5487
@datascience5487 2 жыл бұрын
Не могу понять вычисление шага (5:19). В чем математически смысл изменения переменной функции именно на величину производной при такой переменной умноженной на learning rate? Почему надо делать именно такое изменение? Понятно, что это сдвигает переменную x в нужную сторону, постепенно уменьшая или увеличивая его, но почему именно так, в чем его смысл? Это как из расстояния вычесть скорость. Правильно ли я понимаю, что learning rate можно рассматривать как время?
@user-bt9ur4rh4w
@user-bt9ur4rh4w Жыл бұрын
Ты нашёл ответ на свой вопрос? А то я тоже не понял
@Kot_Matroskin135
@Kot_Matroskin135 10 ай бұрын
Не, это надо, чтобы у тебя величина, которую ты вычитаешь, тоже уменьшалась. В минимуме у тебя производная будет стремиться к нулю, значит и величина, которую ты вычитаешь, тоже будет стремиться к нулю. Таким образом ты быстрее найдешь минимум и уменьшается вероятность перескочить этот самый минимум. Формально можно и константу вычитать, но, как я уже выше написал, это полная херня
@cicik57
@cicik57 2 жыл бұрын
вроде бы логистическую регрессию считают от софтмакса и там получится просто разность
@TheBestRussianPub
@TheBestRussianPub 7 ай бұрын
Да, это для дискретных систем. В непрерывных именно таким образом считается. Просто это надо знать, чтобы понимать как переход осуществляется.
Лекция. Градиентная оптимизация
27:52
Deep Learning School
Рет қаралды 17 М.
How To Choose Ramen Date Night 🍜
00:58
Jojo Sim
Рет қаралды 51 МЛН
Зу-зу Күлпәш. Көрінбейтін адам. (4-бөлім)
54:41
小路飞姐姐居然让路飞小路飞都消失了#海贼王  #路飞
00:47
路飞与唐舞桐
Рет қаралды 29 МЛН
Градиентный спуск на пальцах
11:22
Лекция 2.5: Регуляризация.
5:03
Deep Learning School
Рет қаралды 7 М.
Метод максимума правдоподобия
49:06
БОРИС БОЯРШИНОВ СО ДНА НАУКИ
Рет қаралды 10 М.
Лекция. Вычисление производной. Градиент
25:22
Самое простое объяснение нейросети
16:30
Программный Кот
Рет қаралды 103 М.
Лекция 2.3: Логистическая регрессия.
12:15
Deep Learning School
Рет қаралды 16 М.
Метод сопряженных градиентов
11:16
Mariia Moskalenko
Рет қаралды 4,6 М.
Метод покоординатного спуска
13:32
Данил Лебедев
Рет қаралды 1,7 М.
Машинное обучение 1, лекция 4 - модификации градиентного спуска, регуляризация
1:18:01
How To Choose Ramen Date Night 🍜
00:58
Jojo Sim
Рет қаралды 51 МЛН