Логистическая Регрессия | Logistic Regression | Линейная модель для классификации |МАШИННОЕ ОБУЧЕНИЕ

  Рет қаралды 14,566

machine learrrning

machine learrrning

Күн бұрын

Поддержать канал можно оформив подписку на
🎉 boosty.to/machine_learrrning
🎉 machine_learrrning
🎉 А можете скидывать монеты на www.donationalerts.com/r/mach...
Канал в TG t.me/machine_learrrning
Группа в VK machine_learrrning
Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
go.redav.online/13d10800fd8342c0 (Нетология)
Приходите ко мне на занятия!
Курсы на платформе Stepik:
1. Библиотеки Python для Data Science stepik.org/a/129105
2. Введение в нейронные сети (Keras/Tensorflow) stepik.org/a/127274
❓ Вопросы, на которые найдем ответы в этом видео:
- Что такое логистическая регрессия
- Как обучается логистическая регрессия
- Что такое правдоподобие
- Что такое функция потерь logloss (кросс-энтропия)
🌟 Линейная регрессия • РЕАЛИЗАЦИЯ ЛИНЕЙНОЙ РЕ...
0:00 Введение
0:05 План занятия
0:20 Что нужно знать для занятия
0:49 Поддержка boosty.to/machine_learrrning
0:49 Поддержка machine_learrrning
1:14 Что такое логистическая регрессия
2:06 Линейная классификация
4:11 Сигмоида для линейной классификации
6:02 Логистическая регрессия простыми словами
6:24 Как обучается логистическая регрессия
6:43 Сравнение логистических регрессий
8:00 Введение в logloss
8:06 Правдоподобие Likelihood
8:42 Простой пример расчета правдоподобия
10:51 Расчет правдоподобия на всех данных
12:34 Получили логистическую функцию потерь
12:41 Расчет логлосса на правдоподобии
13:13 Сравнение кросс-энтропии
13:38 Вывод кросс-энтропии из правдоподобия
13:41 Формула подсчета правдоподобия
14:08 Пример расчета правдоподобия по формуле
15:40 Вывод формулы logloss
16:08 Метод максимального правдоподобия
16:22 Как из правдоподобия получить logloss
17:34 Градиент по logloss
18:06 Резюме обучения логистической регрессии
18:40 Спойлер к следующему видео
18:54 Резюме занятия
19:01 Логистическая регрессия - это линейная регрессия с сигмоидой
19:21 Правдоподобие
19:30 Logloss, Логлосс, Cross-entropy, Кросс-энтропия
19:42 ♡

Пікірлер: 41
@pashamorozov8257
@pashamorozov8257 2 ай бұрын
Спасибо большое. Ооооочень доступно и понятно, как и все видеоролики. Вы талант!
@pavelkoloyan7187
@pavelkoloyan7187 Жыл бұрын
Спасибо. Очень понятно объясняешь. Смотрю твои видео для закрепления материала. Если, что то не догоняю после твоих видео все становиться на места). Про расчет градиента очень бы хотелось послушать. Тема довольно важная кажеться😃👍
@poigrushkin9433
@poigrushkin9433 Жыл бұрын
Ура, жду следующее видео, это было прекрасным
@machine_learrrning
@machine_learrrning Жыл бұрын
Огромное спасибо за приятные слова! 😊 Уже совсем скоро, а точнее в субботу выйдет видео про реализацию логистической регрессии
@mariakupfer1240
@mariakupfer1240 11 ай бұрын
О Боже, я наконец-то всё поняла! Спасибо большое! Я правда уже долгое время не могла понять, что такое Правдоподобие и как оно связано с Логистической регрессией! Пошла смотреть другие ваши видео 😊
@user-gw2hb6nd6x
@user-gw2hb6nd6x Жыл бұрын
Как всегда, отличное объяснение! Спасибо!
@leshamas_
@leshamas_ Жыл бұрын
Большое спасибо за разъяснения! Видео очень ёмкое и подробное для каких-то 20 минут =)
@petrgolovnin1992
@petrgolovnin1992 11 ай бұрын
Юлия, благодарю за урок! Для чего нужно делать градиентный спуск из logloss и как его делать? Будет супер, если такой урок сделаете)
@Goressi
@Goressi 10 ай бұрын
Прекрасное объяснение, спасибо!
@Midjt
@Midjt 4 ай бұрын
Браво! Прекрасное объяснение! 5+
@user-wk6cb2yf8l
@user-wk6cb2yf8l Жыл бұрын
Спасибо, очень доступно, ждём продолжение)
@machine_learrrning
@machine_learrrning Жыл бұрын
Пожалуйста! Продолжение будет завтра :)
@user-fr7df3tw1v
@user-fr7df3tw1v Жыл бұрын
Шикарно👏
@aaaaaaapchi
@aaaaaaapchi Жыл бұрын
👏👏 Отлично!
@ramzesi201
@ramzesi201 4 ай бұрын
одно из лучших видео что я видел
@user-wr7vn3ve5e
@user-wr7vn3ve5e Жыл бұрын
Спасибо! Отличный урок!
@machine_learrrning
@machine_learrrning Жыл бұрын
Пожалуйста, очень рада, что урок понравился 😊
@LoSb_Krakov
@LoSb_Krakov Жыл бұрын
Спасибо!
@LoSb_Krakov
@LoSb_Krakov Жыл бұрын
Я понял, что такое правдоподобие, ура!
@aly7401
@aly7401 Жыл бұрын
Спасибо огромное, это лучшее объяснение правдоподобия. А планируется ли видео по подробному разбору roc-auc?
@machine_learrrning
@machine_learrrning Жыл бұрын
Про ROC-AUC уже было видео: kzfaq.info/get/bejne/rJyAg6ppr8Wpl6c.html
@aly7401
@aly7401 Жыл бұрын
@@machine_learrrning спасибо, не заметила его с первого раза
@user-im9fi5ee4i
@user-im9fi5ee4i 8 ай бұрын
leaRRRning это отсылка на что?)) Клевый ролик)
@user-ku4nn5pw8p
@user-ku4nn5pw8p 9 ай бұрын
Спасибо за контент! Видео помогают суммаризировать информацию - ставлю лайк под каждым вашим роликом) По данному видео возникло 3 вопроса: 1. Почему на 11:55 мы делим на N? Вроде как когда я изучал статистику, при поисках ОМП (оценок макс правдопод) мы не делили правдоподобие на N. 2. Совпадение ли, что на 17:10 формула похожа на энтропию Шеннона? Если нет, то как это связано?)) 3. Как получилась формула для градиента logloss? Вы сказали, что выведите формулу в след видео с реализацией - я поверхностно пробежался по таймкодам, но вывода не нашел(
@user-ku4nn5pw8p
@user-ku4nn5pw8p 9 ай бұрын
И еще хочу уточнить - на 17:40 вы говорите про то, что мы ищем веса лог. регрессии через градиентный спуск. Но я тут прохожу параллейно логистическую регрессию с одним номинативными предикторами на курсе по статистике и там эти веса - логарифмы отношения шансов отнесения обьекта к классу (log[1ый класс/2ой класс]). Формула с логарифмами - это частный случай для номинативных переменных, который перестает работать в случае количественных переменных?..
@ds_sss_rank
@ds_sss_rank 9 ай бұрын
логлосс вроде это бинарная кросс-энтропия, а не кросс-энтропия 17:30 за видео спасибо
@Putinka1000
@Putinka1000 Жыл бұрын
Хотелось бы ссылку на donation alerts, яндекс кошелек и т.п., чтобы иметь возможность единоразово отблагодарить без регистрации. За видео спасибо.
@machine_learrrning
@machine_learrrning Жыл бұрын
А такая ссылка есть :) www.donationalerts.com/r/machine_learrrning Буду рада за поддержку!
@leowhynot
@leowhynot Жыл бұрын
есть видео про подробное получение градиента? хотелось бы еще узнать как высчитываются веса в sklearn модели logreg. неужели все через градиентный спуск?
@machine_learrrning
@machine_learrrning Жыл бұрын
Про градиентный спуск рассказываю и его показываю в видео про реализацию линейных моделей: 1. линейная регрессия kzfaq.info/get/bejne/gbBxbKRi1p_QZ3k.html 2. логистическая регрессия kzfaq.info/get/bejne/qNuGfpNovqyRgok.html В этих моделях могут использоваться другие методы оптимизации, более подробно стоит смотреть по агрументу solver в классах sklearn, к примеру, для логрег: scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html
@doniyordjon_pro
@doniyordjon_pro Жыл бұрын
Интересно, градиент из логлосса
@user-bj9bf8jn9h
@user-bj9bf8jn9h 6 ай бұрын
Кто-нибудь объясните пожалуйста про логарифм на 12:21
@user-zj6cw9mt3d
@user-zj6cw9mt3d Жыл бұрын
Спасибо, а логистическая регрессия умеет работать с пропусками в данных ?
@machine_learrrning
@machine_learrrning Жыл бұрын
нет, к сожалению, такой способности у модели нет
@Roc19961
@Roc19961 Жыл бұрын
А, так вот почему игноришь в лс, ты монтируешь
@iotone7525
@iotone7525 Жыл бұрын
Кажется, что вы это объясняете это тем, кто это уже все знает, а я ничего не понял. Очень хочется все это понять и объяснить людям ПОНЯТНО, на примере. Просто начинаешь смотреть, какие-то непонятные обозначения. Скалярное произведение. Че за скалярное произведение, че это вообще такое и так все. ну нафиг.
@machine_learrrning
@machine_learrrning Жыл бұрын
Может быть для начала ознакомитесь с видео про линейную регрессию, где как раз-таки получаем это скалярное произведение? kzfaq.info/get/bejne/gbBxbKRi1p_QZ3k.html А если говорить кратко, то это перемножение коэффициентов (весов) на признаки (характеристики данных)
@iotone7525
@iotone7525 Жыл бұрын
@@machine_learrrning Спасибо, попробую
@iotone7525
@iotone7525 Жыл бұрын
Знаете как это выглядит моими глазами? Смотрю на график, там числа, че за числа, че это? непонятно. Ладно, поехали дальше. бла бла бла, Скалярное произведение. Че? Че это такое? Начинаешь гуглить. результат операции над двумя векторами, являющийся скаляром, то есть числом, не зависящим от выбора системы координат. Используется в определении длины векторов и угла между ними. Че? Че? Что это вообще значит? может если я прочитаю че такое вектор мне станет понятно? ок. математический объект, характеризующийся величиной и направлением. Что? че за объект? Что за величина? Направление в пространстве или где? Как это? ааааааа
@guts909
@guts909 4 ай бұрын
Линейная алгебра в помощь. Там нет ничего сложно. Можете поизучать и потом намного понятнее станет всё
@kosby5963
@kosby5963 8 ай бұрын
Ты милашка) материал хороший, подписался.
Мы никогда не были так напуганы!
00:15
Аришнев
Рет қаралды 1,5 МЛН
Why You Should Always Help Others ❤️
00:40
Alan Chikin Chow
Рет қаралды 134 МЛН
1 класс vs 11 класс  (игрушка)
00:30
БЕРТ
Рет қаралды 4,4 МЛН
ML2.1 Логистическая регрессия
48:42
Михаил Коротеев
Рет қаралды 359
Мы никогда не были так напуганы!
00:15
Аришнев
Рет қаралды 1,5 МЛН