Регрессия пик-плато
7:44
Пікірлер
@DRANIKk
@DRANIKk 13 күн бұрын
пися
@MinisterDorado
@MinisterDorado 17 күн бұрын
Немного не понял откда это берется? E(epsilon_1) = E(E(epsilon_1|x_1))? 7:48
@alexandrkistoychev8074
@alexandrkistoychev8074 Ай бұрын
Типичный математик. Тысячи, миллионы, грамм, метры... да какая разница!
@juliabe408
@juliabe408 Ай бұрын
Чудесная подача! Немного забежали вперёд с RSS, не объяснив отдельно аббревиатуру и что это, но эти формулы, график, объяснение минимизации, на примере чудесны! У меня большую часть жизни были сложности с математикой, но ваша подача мне очень понятна.
@juliabe408
@juliabe408 Ай бұрын
Спасибо вам огромное! Учусь в Германии, столько ненужных подробностей и столько пропусков неясных моментов в лекциях, как у немцев, я не встречала нигде, ваша лекция спасает! Немцы ещё любят коэффициент B0 в модели пихать. В0 - это пересечение осей.
@ProstoLucky
@ProstoLucky Ай бұрын
Автор гений, без аспиранта не разобрать
@cocojamba1488
@cocojamba1488 Ай бұрын
На данный момент советую использовать пакет haven
@_AbUser
@_AbUser Ай бұрын
когда они научатся использовать вменяемый интуитивно понятный язык, а не это сектантские извращение... Элементарно сформулировать задачу - это как будто земля сейчас перед ним провалится..
@nikitayakovlev8638
@nikitayakovlev8638 Ай бұрын
С возвращением
@arcwarden466
@arcwarden466 2 ай бұрын
Крутой мужик
@ITS_Development
@ITS_Development 2 ай бұрын
Игрек с крышкой. Я запомнил)
@emilalmasov1473
@emilalmasov1473 3 ай бұрын
ни хрена непонятно
@ei2292
@ei2292 3 ай бұрын
Преподаватель от Бога
@user-eq9iz9jq8r
@user-eq9iz9jq8r 3 ай бұрын
А как мы в программа выбирает x, который разбивает на подвыборки? Просто среднее значение?
@ei2292
@ei2292 3 ай бұрын
Профи
@gsm7490
@gsm7490 4 ай бұрын
Похоже, Полину ждет большое будущее
@Evgeny-yz2ks
@Evgeny-yz2ks 4 ай бұрын
богоподобно! учусь в европе, а материалы все равно смотрю ваши. вот бы сюда, да наших преподавателей...
@user-ub6xg1um4l
@user-ub6xg1um4l 5 ай бұрын
А простым языком для чайников можете объяснить что такое эндогенность?
@nevork7578
@nevork7578 5 ай бұрын
Видео не раскрывает суть процесса скользящего среднего. Если вы, как и я, не понял эту тему по этому видео, посмотрите вот это: kzfaq.info/get/bejne/sLR8epul2KfDd6M.html
@whoknows4728
@whoknows4728 6 ай бұрын
Типичное преподское решение "А давайте не будем решать через Лагранжа(Вы это уже сами додумайте)" И в чем тогда смысл сиего перфоманса?
@esmira_a
@esmira_a 6 ай бұрын
Самый лучший преподаватель по Эконометрике! Спасибо огромное ❤
@bumaga_blog
@bumaga_blog 7 ай бұрын
Никто не задал главный вопрос: Почему, если вероятность получить 1 звонок в день самая высокая - это событие встречается всего лишь 1 раз? Иными словами: почему событи которое должно происходить гораздо чаще других, на деле происходит реже? Если честно, это очень странный пример.
@user-mk3un4mh3m
@user-mk3un4mh3m 7 ай бұрын
Привет
@user-bk6iv2fi2b
@user-bk6iv2fi2b 7 ай бұрын
Все более менее понятно, только забыли сказать как рассчитывается rss
@dronnet
@dronnet 7 ай бұрын
Весьма интересно, но правда не всё чётко понял. Надо самому писать алгоритм нахождения этих компонент
@dronnet
@dronnet 7 ай бұрын
Супер обьяснения !! И крайне понятные, считаю что ВСЕ обьяснения надо делать на рельных примерах, а не просто некие абстрактные буквы. Но всё же есть несколько вопросов: 1. Почему решили что данные Y распределены по экспоненциальному закону? А если по нормальному распределению или лапласу? Но тут ответ есть, эти распределения имеют формулу и значит дифференцируются. А во если нет и близко нужного закона? что делать? Например известный датасет с цветами Iris - там вообще чёрт знает что а не распределения. 2. Что делать потом с полученным параметром лямбда? 3. В ответе получили что параметр лямбда равен среднему значению. И тогда вопрос - а стоило ли городить этот огород? kzfaq.info/get/bejne/m92VZZqZypvMhI0.html здесь, для нормального распределения, так же получили среднее значение ))
@dronnet
@dronnet 8 ай бұрын
Ура, я всё понял ! Спасибо лектору
@roman_roman_roman
@roman_roman_roman 8 ай бұрын
Класс. Спасибо большое. Как всегда очень информативно и полезно.
@user-iv8ss1xp9u
@user-iv8ss1xp9u 8 ай бұрын
Решил посмотреть порядок подсчёта значений частной автокорреляции временного ряда - пересмотрел раз 10.... Борис Борисович конечно специалист высочайшего класса, но удивляет, как можно несложные понятия так усложнить для понимания студентов
@roman_roman_roman
@roman_roman_roman 8 ай бұрын
Спасибо большое за видео, очень полезно
@ilyasikm
@ilyasikm 8 ай бұрын
Что за стекло? Где купить?
@ilyasikm
@ilyasikm 8 ай бұрын
Что за стекло? Где купить?
@user-vz8yd1ek7z
@user-vz8yd1ek7z 8 ай бұрын
Зачем бэте крышка?
@DauletJ
@DauletJ 8 ай бұрын
Почему у вас разные конечные формулы испольуются? - kzfaq.info/get/bejne/qteKaNhzv5aaaKc.htmlsi=ea_rZgyZ-bGgNTZL
@user-xp2pz4wt8u
@user-xp2pz4wt8u 8 ай бұрын
...певне про те...
@hopelesssuprem1867
@hopelesssuprem1867 8 ай бұрын
Случайный лес - это частный случай бэггинга, когда n деревьев обучаются параллельно на бутстрапированных выборках, а в кач-ве ф-ции агрегирования используется мода для классификации и среднее для регресси. Всё, нечего тут объяснять, а лектор так сложно объясняет такие простые вещи.
@dronnet
@dronnet 7 ай бұрын
а вот я ещё пока ничего не понял. Ну например, а как выбрать порог разделения? а с какого столбца начать? а как понять что именно этот порог лучший? и т.д.
@hopelesssuprem1867
@hopelesssuprem1867 7 ай бұрын
@@dronnet порог выбирается на минимизации загрязненности в узле, например с помощью взвешенной неопределенности Джини. Лучше почитайте книгу hands-on machine learning и посмотрите statquest. Такие челы, как этот лектор, вас ничему не научат ибо сами ниче не знают.
@dronnet
@dronnet 7 ай бұрын
Спасибо, попробую посмотреть. Пока я понял следующее что ВСЕ алгоритмы надо уметь написать с нуля самому, используя только numpy, только тогда достигается полное понимание что и куда. Пока научился писать и понял лин регрессию, градиентный бустинг, кНН и нейросетку полносвязанную одно и двух слойную. Продолжаю изучение@@hopelesssuprem1867
@DauletJ
@DauletJ 9 ай бұрын
Не раскрыли как нашли точку минимума.... В остальном понятно.
@deminvictor
@deminvictor 9 ай бұрын
Круто
@user-rr7yi3ru2p
@user-rr7yi3ru2p 9 ай бұрын
можно ли сказать проще: берем отклонения от функции возводим их в квадрат и сравниваем их с нормальными значениями отклонения?
@thebrooks46
@thebrooks46 10 ай бұрын
НАХУЯ ЭТО В ЖИЗНИ?????????
@smooth921
@smooth921 10 ай бұрын
откуда взялось 12p^2?
@user-tb5fi1hl1z
@user-tb5fi1hl1z 11 ай бұрын
человеку, не знакомому с математикой 11 класса на оч приличном уровне, вообще непонятно
@vasilyboychuk4024
@vasilyboychuk4024 11 ай бұрын
А почему нельзя было в функции перед взятием производной окончательно раскрыть скобки? Вроде бы понятно, что нужно как-то логарифм использовать, чтобы пробросить мостик к тому, что нет разницы, что максимизировать - функцию правдоподобия или её логарифм. Но хотелось бы узнать ваше мнение.
@user-nq2qg1qv8v
@user-nq2qg1qv8v Жыл бұрын
Спасибо!
@victorprohorov6201
@victorprohorov6201 Жыл бұрын
так R2= RSS/TSS а не ESS/TSS
@user-vb3nh3ye6m
@user-vb3nh3ye6m Жыл бұрын
Ага, тоже смутился. Видимо ошиблись
@MsGleaming
@MsGleaming 11 ай бұрын
похоже на очепятку
@user-yc9vw1jd3h
@user-yc9vw1jd3h 18 күн бұрын
Автор все правильно сказал. Нужно смотреть что подразумевается в литературе, которую вы читали, под ESS и RSS. Потому что где-то ESS из видео - это для RSS. И наоборот
@user-xf2sw2wx2k
@user-xf2sw2wx2k Жыл бұрын
Большое спасибо! Учусь у сумасшедшей бабки. Непонятно было абсолютно ничего, но теперь всё встало на свои места!
@uusserrrreesssuuu
@uusserrrreesssuuu Жыл бұрын
забейте на R, учите путхон
@ocamlmail
@ocamlmail Жыл бұрын
Вот это и называется "внезапно".
@chess.queensgambit..1075
@chess.queensgambit..1075 Жыл бұрын
Прайсинг опционов это круто, робота бы еще показали как прикрутить по алгоритму с покупкой/продажей
@user-in5gm4xt7e
@user-in5gm4xt7e Жыл бұрын
Спустя пять лет новый видос)
@user-bm5zk9mf3o
@user-bm5zk9mf3o Жыл бұрын
иногда они возвращаются)
@AleksanderChuikov
@AleksanderChuikov Жыл бұрын
продолжайте вести наблюдение