Голос одного из умов за кадром чем-то напоминает Onigiri
@igarazha21 күн бұрын
12:37 Nice code Awesome file names)))))
@andreykot4507Ай бұрын
а мне наоборот нравится, что вы сделали разьяснение через индексы, это дает более глубокое понимание происходящего!
@fminАй бұрын
Я, кстати, сейчас совсем отошел от индексов. Нотация через dx всё-так более плодотворная.
@VladKochetovАй бұрын
Это невероятно, спасибо! Не видел ранее столь доступное и практичное объяснение темы, тем более на русском
@fminАй бұрын
Спасибо вам, Влад!
@yampolsonАй бұрын
Кажется из-за Никитоса скомкали про Sensitivity. Нужна отдельная лекция про это теперь, братишка!
@fminАй бұрын
ДИМАС! Будет в лекции про ЛП конкретный сюжет про это, хотя ты это знаешь наверняка! Но вообще идея хорошая, надо когда-нибудь будет записать короткие сюжеты отдельные.
@user-gw8bx4pm2oАй бұрын
Лектор топ!
@vitaliyminkevich8330Ай бұрын
Даниил, а есть ли семинары к Вашим лекциям?
@fminАй бұрын
Здравствуйте, есть в виде презентаций на сайте hse24.fmin.xyz
@user-dz3bt1yv2d2 ай бұрын
Каждый новый выпуск как бальзам на душу!❤
@fmin2 ай бұрын
ДИМАС, КАК Я РАД ТЕБЯ ЗДЕСЬ ВИДЕТЬ!
@user-oj9wm7qf4f2 ай бұрын
над культурой речи поработай
@fmin2 ай бұрын
Здравствуйте, Ирина! Есть какие-нибудь практические рекомендации, чтобы можно было быстро внедрить?
@drkovalex2 ай бұрын
@@fmin не внедрить, а впердолить!
@user-oj9wm7qf4f2 ай бұрын
@@fmin Здравствуйте, Даниил! Мои соображения: 1. Говорить чуть медленнее и спокойнее. 2. Лексика уровня "кидать какашками", вероятно, больше подходит для более неформальной обстановки. 3. Не злоупотреблять "кейсами" англицизмов. Впрочем, возможно, я немного отстала от современных тенденций "образовательного процесса". Всего доброго!
@user-pn1oq8vb1o2 ай бұрын
Ааа мой мозг взрывается
@fmin2 ай бұрын
Антон, восстанавливайтесь, вы нам нужны, потихонечку, помаленьку - задавайте вопросы, если не понятно.
@spiritmoon34572 ай бұрын
1:17:09 В каждой новой точке для оценки градиента рассчитывается функция в 3 точках (вершинах симплекса, самой точке и в двух сдвинутых от нее на небольшую величину). Это очень неэффективно. В алгоритме Нелдера-Мида в среднем по 1 оценке функции на итерацию.
@fmin2 ай бұрын
Хорошее наблюдение. Указанный вами недостаток - ещё один минус в копилку безградиентных методов. Однако, такого рода методы (где градиент аппроксимируется как-то) имхо значительно легче в теоретическом анализе, чем Нелдер-Мид.
@spiritmoon34572 ай бұрын
@@fminСпасибо за ответ. К сожалению очень часто только такая оптимизация доступна. У вас очень хорошие лекции с удовольствием слушаю.
@fmin2 ай бұрын
@@spiritmoon3457 Спасибо вам!
@alexcave90202 ай бұрын
А видео семинаров не будет?
@fmin2 ай бұрын
Пока не планируется, с этим есть сложности.
@user-yt3dz3cm8h2 ай бұрын
Каждые выходные доза науки от ЛУЧШЕГО
@fmin2 ай бұрын
ВАСЯ, ДОРОГОЙ, СПАСИБО! КАК ПРИЯТНО ЧИТАТЬ!
@15th_dacha343 ай бұрын
Даниил, а Вы не хотите написать книгу с первым научным изложением методов оптимизации в дополнение к Вашему сайту? Просто Ваши материалы в ру сегменте - это самый топ. А если бы ещё была книжка, где всё последовательно изложено, это бы стало новой эпохой в методах оптимизации.
@fmin3 ай бұрын
Спасибо! Ахах, название принципиально одобряю! Но пока не хватает времени для этого, но материалы выкладываю fmin.xyz, mipt23.fmin.xyz, hse24.fmin.xyz🛵🏛🍷
@user-ph9pc7ef7k3 ай бұрын
Добрый день! Подскажите, где можно найти ссылку на колаб из этого семинара?
@alexcave90203 ай бұрын
Что-то я не могу понять момент на 43:00. Почему мы можем a_i возводит в любую степень? У нас есть таблица, где есть четкая ассоциация - значение a_i появляется с вероятностью p_i. Если мы как-то меняем значение a_i, то соответствовать оно уже будет другой вероятности
@fmin3 ай бұрын
Так считается мат. ожидание функции от дискретной случайной величины. E f(x) = ∑ pᵢ f(aᵢ)
@alexcave90203 ай бұрын
@@fmin я правильно понимаю, в данном случае p_i и p_i в начале таблицы - это разные значения. Просто в данном вопросе нас волновало только, то что она дискретная и подчиняется начальному условию?
@anastasiaberendakova5103 ай бұрын
честно говоря, не знаю, зачем я это смотрю, но мне нравится
@fmin3 ай бұрын
Никогда не знаешь, что пригодится в жизни! К тому же, наши предметы много пересечений имеют!
@anastasiaberendakova5103 ай бұрын
Какой экспрессивный семинарист
@fmin3 ай бұрын
Спасибо, Анастасия!
@mindcore28194 ай бұрын
Всегда когда сидел на парах и не понимал преподов думал что это я не достаточно силен, оказывается это преподы недостаточно хорошо преподают материал, кучу теории и теорем и слишком много формулировок чтобы обьяснить простые вещи
@fmin4 ай бұрын
Преподы делают, что могут и как могут. Работа непростая, но важная.
@VladKochetov4 ай бұрын
Обожаю этот стиль преподавания. Интересно и понятно
@fmin4 ай бұрын
Спасибо вам, Влад!
@alexearth58174 ай бұрын
Подскажите, пожалуйста, а где можно посмотреть презентацию с кликабельными ссылками?
@fmin4 ай бұрын
hse24.fmin.xyz
@alexcave90204 ай бұрын
Мне всё-таки интересно - почему нет попыток использовать алгоритм Левенберга -Марквардта вместо градиентного спуска? Знаю, что там будет больше потребление памяти, но можно же, например, использовать алгоритм совместно с методом сопряжённых градиентов, или мб можно использовать ещё другие апроксимации. Видел одну статью, где человек использовал этот метод для обучения небольшой нейронки. Там он вместо использования одного большого якобиана раскладывал его на якобианы поменьше (для каждого слоя свой якобиан). Но автор не сравнивал метод с градиентным спуском, а только с наивной версией оптимизации
@fmin4 ай бұрын
Хорошее замечание, можно рассматривать метод сопряженных градиентов (ведь изначально он предназначен только для минимизации квадратичных задач) как ещё один ускоренный метод первого порядка, именно они сегодня и используются повсеместно в приложениях. Что же касается методов типа Гаусса-Ньютона (частный случай Левенберга-Марквардта), то их использование связано с необходимостью хранить большие матрицы или считать быстрые матвеки, что просто тяжело для задач большой размерности.
@alexcave90204 ай бұрын
@@fmin А если, например, попробовать скомбинировать оптимизацию Гаусса-Ньютона и градиентый спуск? Для тяжёлых слоев, где затухают градиенты, считаем якобиан, а остальные обновляем по антиградиенту. Допустим у нас слой размером 256х256, тогда для хранения матрицы J^T * J, потребуется 4гб памяти, что много, но вроде бы в рамках дозволенного. Для решения СЛАУ можно использовать разложение Холецкого. Т.е. пусть и в ограниченных вариантах, но можно было бы использовать для дообучения особо сложных слоёв.
@julymarc24624 ай бұрын
а я правильно понимаю, что когда минимизируется функция L, это та самая L из ML?
@fmin4 ай бұрын
В точку!
@julymarc24624 ай бұрын
Автоград оруууу)
@julymarc24624 ай бұрын
вот это сильнейший сетап: хватит галдеть!)
@fmin4 ай бұрын
Без негатива.
@nurzaur4 ай бұрын
Всё отлично - и лектор выпукл и лекция выпукла. Ставлю лайк
@fmin4 ай бұрын
ЗАУР, ПРИВЕТ! Лектор стремится избавиться от выпуклости после праздников.
@user-kn7tz4co3l4 ай бұрын
Отличный лектор, мне очень интересно смотреть. И это не потому что Данечка мой сын, а потому что это действительно очень образованный и интеллигентный молодой человек! Такой взрослый и рассудительный, настоящий жених🤗
@fmin4 ай бұрын
Анастасия, спасибо вам! И правда уж точно не потому что!
@user-bc5tq9fi4n4 ай бұрын
Подача супер!!!!
@fmin4 ай бұрын
МИШГАН, СПАСИБО БОЛЬШОЕ!
@user-yt3dz3cm8h4 ай бұрын
Душевное видео, лучший подарок для вечера пятницы!
@fmin4 ай бұрын
ВАСЯ, СПАСИБО! ТЕБЕ ЗДЕСЬ ВСЕГДА РАДЫ!
@strtel31865 ай бұрын
Здравствуйте! Где можно найти файл лекции?
@LangAndr5 ай бұрын
Ужас, а не лекция. С психологией, педагогикой, методикой, методологией науки лектор будто бы и не знаком. Речь - вне комментариев. На доске - полный хаос.
@fmin5 ай бұрын
Доброго здравия!
@fmin5 ай бұрын
Скиньте ваши лекции для референса, пожалуйста.
@LangAndr5 ай бұрын
А с какой целью на английском языке? Студенту заниматься переводом или Вас слушать? Следует поработать над речью, замусорена она.
@fmin5 ай бұрын
Доброго здравия!
@user-qp7zz1hv7f5 ай бұрын
Спасибо!
@fmin5 ай бұрын
Спасибо вам, Олександр! Рекомендую посмотреть видео этого года, они, мне кажется, лучше. Есть плейлист на канале.
@nurzaur5 ай бұрын
Top-level объяснение!
@fmin5 ай бұрын
Заур, рад читать тебя здесь! Спасибо!
@dibehemoth4016 ай бұрын
Хоть где-то нормальное объяснение теории на которой основан Симплекс-метод, а не просто гайд как его применять.
@thenobility_6646Ай бұрын
согласен
@user-rg2jk8ow3m6 ай бұрын
Супер лекции!
@ingaochneva15646 ай бұрын
32:57 когда говорим про базис 3-4, непонятно, почему он неоптимальный. Ведь по картинке видно, что коэффициенты лямбда разложения вектора с будут отрицательными.
@user-ng7lo7yo8y6 ай бұрын
Вместо налогов и их неуплаты можно приводить пример превышения скорости в такси и штрафа. Можно ездить без нарушений и медленно, а можно платить штраф, и возить быстро и с доп услугами
@fmin6 ай бұрын
Отличный пример! и штраф можно организовать линейный.
@antient_atlas6 ай бұрын
Скажите, пожалуйста, что нужно заботать перед тем как проходить Ваш курс лекций и семинаров (студент 1 курс)? (уже заботаны основы линала и матана)
@fmin6 ай бұрын
Да вобщем нужен серьезный линал, матан. Хорошо бы иметь простую базу по теорверу. А так, надо по ситуации смотреть. Есть частички функана, но минимальные.
@antient_atlas6 ай бұрын
Понял, буду учить, спасибо за ответ
@x_shorts_ai5 ай бұрын
а может у Вас есть в закладках ссылки на эти курсы, где ведут такие же крутые (или хотя бы где-то рядышком) лекторы как Вы? @@fmin
@fmin5 ай бұрын
Спасибо большое за лестную оценку@@x_shorts_ai У моего товарища @zhestkov_uni на канале есть похожие материалы и курсы.
@rorschach34156 ай бұрын
Нужно было подготовить доклад по теме, очень помогло вообще видео, спасибо
@fmin6 ай бұрын
Спасибо вам! Обратите внимание, что есть более актуальные материалы, в этом году еще будет большое обновление.
@antient_atlas6 ай бұрын
Препод - легенда, даже Дэвид Малан отдыхает)
@fmin6 ай бұрын
Спасибо огромное! Но до него как до луны, конечно.
@GerryFolf6 ай бұрын
Почему выпуклые, а не впуклые? Чем впуклые отличаются от выпуклых? А выпуклых в какую сторону? Короче сегодня тема - метеоризм, выпуклось кишечного тракта, к чему это приводит, и как рассчитать множестенные выпуки.
@fmin6 ай бұрын
Поддерживаю! Дорогу шуткам про пердеж!
@GerryFolf6 ай бұрын
@@fmin главное не забудьте дать точное математическое описание, можно даже через 165-е измерение вогнуто-изогнутой цилиндрической поверхности расположенной на сфероиде 8-го порядка.
@user-pc7pn9rj2n6 ай бұрын
чтобы понимать то, что рассказывает мой профессор я смотрю ваши лекции, Спасибо!
@user-pc7pn9rj2n6 ай бұрын
Было бы еще здорово на английском основные термины дублировать)
@fmin6 ай бұрын
Дорогая Майда, обратите, пожалуйста, внимание, что на канале есть более актуальные семинары, чем этот (курс читается ежегодно) - посмотрите плейлисты, там всё есть. Мне кажется, что с каждым годом материал становится лучше. По поводу английских терминов - обратите внимание на сайт fmin.xyz - там, собственно, все материалы и значительная часть на английском (хотя готово там еще не все)
@girrra12337 ай бұрын
Здравствуйте у меня какой то шизанутый предмет оптимальное управление там всякие функционалы минимизируются, принцип максимума, переключения и всякое такое, мне поможет данный курс или это совсем разные курсы "оптимизации" ?
@fmin7 ай бұрын
Здравствуйте, оптимальное управление это немного другой курс. Я думаю, что для его прохождения нужно знать базу оптимизации. А именно: концепцию выпуклости, условия оптимальности, идею субградиента, некоторые методы. Мы в этом курсе фокусируемся на БАЗЕ. Идеи оптимального управления не трогаем практически.
@VirVen7 ай бұрын
Жду каждый сюжет, как фильмы Гая Ричи . Надо ещё трейлеры делать 😂
@fmin7 ай бұрын
Хе-хе:) Спасибо! Интриги, правда, не очень много.
@VirVen7 ай бұрын
@@fmin а вдруг выпуклые множества окажутся впуклыми....
@user-rs8xm2tt5x7 ай бұрын
Молодец!
@user-qs2bj2pq8l7 ай бұрын
Даниил, спасибо! Как всегда - шедеврально!
@fmin7 ай бұрын
Евгений, спасибо большое!
@Alex-if6mv7 ай бұрын
@fmin, под какой курс лекций эти семинары, подскажите, пожалуйста?
@andrew20tv7 ай бұрын
Каждый уважающий себя пацан эксперт по работе в пацанских пространствах
@kukurukuchudnoe7 ай бұрын
Чую, пойдёт в народ. Новосибирск, Томский политех смотрят