The Skorokhod readings, 2024
1:53:06
Lecture 5: Cameron-Martin space
1:02:16
Пікірлер
@user-fl8ku3bi9j
@user-fl8ku3bi9j 5 күн бұрын
hi, i find this interesting, i have a question, how can I find the Green kernel of a non polar set of R^2?
@user-ic7ii8fs2j
@user-ic7ii8fs2j 27 күн бұрын
would it be possible to get notes for these lectures, please ?
@aron2971
@aron2971 2 ай бұрын
I am for sure these lecture are gold being taught from experienced professors.it would be good for us or other people if u could make the tone a bit better using AI sound or sth .Thank u sir
@juanfa98
@juanfa98 4 ай бұрын
jefaza
@homucidal8517
@homucidal8517 4 ай бұрын
10/10
@enas_trelos
@enas_trelos 5 ай бұрын
I think a (1/2) is missing in the Ito's formula at 24:02. Otherwise very informative lectures and thanks for sharing!
@carrollerxleben5754
@carrollerxleben5754 7 ай бұрын
'promo sm'
@bingbingsun6304
@bingbingsun6304 7 ай бұрын
学习打卡
@concoursmaths8270
@concoursmaths8270 8 ай бұрын
it is nice to watch your videos in additional to Fima Klebaner's textbook and my instructor's notes, you provide a funny and beautiful perspective for these SDEs. Thank you
@esfloresmFlores
@esfloresmFlores 8 ай бұрын
Thankyou very much
@ExpertMathematician
@ExpertMathematician 8 ай бұрын
thank you so much for this material i was searching why einstein using normal distribution to approach his formula
@concoursmaths8270
@concoursmaths8270 8 ай бұрын
thank you so much ❤
@concoursmaths8270
@concoursmaths8270 8 ай бұрын
such a nice lecture.
@o2807
@o2807 9 ай бұрын
Viewers: Easier if you go and read a textbook. just too painful
@miltosgalanis781
@miltosgalanis781 3 ай бұрын
Do you have any textbooks to suggest for these topics?
@o2807
@o2807 9 ай бұрын
if u use AI reader vid is more usable
@wenzhang365
@wenzhang365 10 ай бұрын
Thanks. Any recommended textbooks? I want to know where the non-negative function definition comes from.
@theoryofstochasticprocesses
@theoryofstochasticprocesses 9 ай бұрын
Any covariance function is a non-negative definite function. That's why we have such condition for covariance function of Brownian motion.
@Zenchiyu
@Zenchiyu 8 ай бұрын
I can add that we sometimes see the formula she wrote in a matrix form with like v^T K v >= 0, K semi-definite positive (I'm more used to this, maybe you too)
@warifb
@warifb Жыл бұрын
hi, I am a PHD student from iraq I need help in sde boundedness Please how can I contact you..
@Other52.
@Other52. Жыл бұрын
From India Salute your hard work sir
@basternox5990
@basternox5990 Жыл бұрын
I have no idea why this showed up in my recommendations. Then again I know very little about vectors, so i'll stick to your channel to brighten up a bit.
@oumarsall4558
@oumarsall4558 Жыл бұрын
Thank you
@vladykinalex
@vladykinalex Жыл бұрын
Русскии?
@user-bg1tg6kc6x
@user-bg1tg6kc6x Жыл бұрын
Какой замечательный канал!
@randalllionelkharkrang4047
@randalllionelkharkrang4047 Жыл бұрын
Thanks for this. Do you have exercises and lecture notes ?
@sachin-mavi
@sachin-mavi Жыл бұрын
thank you so much ... how can we access the lecture notes?
@chaosean4520
@chaosean4520 2 жыл бұрын
Do you have full article of this document?
@pakhomovviktor3149
@pakhomovviktor3149 2 жыл бұрын
Plz open donation for the camera, your content is really good. It's would be a real treasure to digest it in better quality 👍
@Murat-fi6ff
@Murat-fi6ff 2 жыл бұрын
Plz change the camera angle its impossiblr to read the board
@JaGWiREE
@JaGWiREE 2 жыл бұрын
Interesting comments at the end, thanks.
@user-zw4iu2us6n
@user-zw4iu2us6n 2 жыл бұрын
Cool! It's very good that now we have a rigorous construction of the Ito integral and the proof of the Ito's formula available as a video lecture. But on the 49th-50th minute it is not completely clear how the dominated convergence theorem helps to prove that H_h(s, \omega)=\int\limits_{s-h}^s H(s, \omega)ds converges to H(s) in some sense (we need almost sure convergence for the application of dominated convergence - but this convergence was not proved).
@alinaivanova3001
@alinaivanova3001 2 жыл бұрын
спасибо, очень понятное объяснение!)
@volodymyrbarannik179
@volodymyrbarannik179 2 жыл бұрын
{A_n} представляет собою бесконечное множествое событий. Определение верхнего предела подразумевает то, что каждый из них обязательно произошел ровно один раз либо же что все из них обязательно произошли, причем каждый из них произошел произвольное количество раз?
@theoryofstochasticprocesses
@theoryofstochasticprocesses 2 жыл бұрын
Помимо определения, в лекции есть лемма о характеризации верхнего предела 29:20 . Из него можно видеть, что для любого номера n обязательно найдется k>n, такой, что произошло событие А_k. Это и означает, что происходит бесконечно много событий из последовательности {A_n}
@volodymyrbarannik179
@volodymyrbarannik179 2 жыл бұрын
Здравствуйте, прекрасная лекция! Правда я не совсем понял в чём суть верхнего предела последовательности случайных событий. Можете, пожалуйста, привести какие-то другие примеры? А то складывается впечатление, что верхний предел подразумевает, что события из последовательности обязательно "знают" про свой номер и в целом в своей формулировке отличаются лишь этим номером.
@dongwei8131
@dongwei8131 3 жыл бұрын
Professor, thank for your sharing. The lecture is very clear, and i learn a lot. by the way, will the total ten lectures be made available on line?
@theoryofstochasticprocesses
@theoryofstochasticprocesses 3 жыл бұрын
Thank you for your response. Yes, all lectures will be available here.
@kappiahdanquah
@kappiahdanquah 2 жыл бұрын
Please how can we access the lecture notes that accompanies these lectures or can you recommend any appropriate textbook?
@sofianechalal3433
@sofianechalal3433 3 жыл бұрын
interesting, thanks for the presentation
@antonkucenko3310
@antonkucenko3310 3 жыл бұрын
15:50 - что-то я пропустил, было мю в сумме, есть предел по компактности, но почему этот предел равен тому же что стояло перед матрицами в сумме, т.е. почему мю заменилось на пи, которое и есть предел? Доказательство конечно же проходит и с мю вместо пи в сумме, а пи только в левой части, так что это видимо просто опечатка.
@kirillsviderski4739
@kirillsviderski4739 3 жыл бұрын
Попал в свой 2010 год. И пусть я не стал профессиональным математиком, не хватило терпения, но опыт того обучения однозначно положителен. Рад снова послушать Андрея Анатольевича
@benpovar3914
@benpovar3914 3 жыл бұрын
На 35:33 имеется ввиду 0.5 max(a, b)
@user-sp7sl5bp5z
@user-sp7sl5bp5z 3 жыл бұрын
В предыдущем равенстве ошибка: должно было быть 0.5(a+b-2min(a,b)). А окончательный ответ правильный :-)
@benpovar3914
@benpovar3914 3 жыл бұрын
А где происходит лекция, можно ли поприсутствовать?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
47:00 почему там перед эмпириической 1/n?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
там на 44:20 к1, к2 в индикаторах
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
27:10 не совсем понял объяснение почему
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
и что Вы там хотели сказать 51:20?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
почему на 9:20 кси квадрат с одним степенем свободы?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
на 3:00 я не совсем понял о подводных камнях
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
на 39:00 я не понял почему V>0. От меня ускользнул физический/логический смысл. Не могли бы вы объяснить это более детально?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
на 29:37 там cov=(А*А)^-1?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
на 46:00 там же для ковариационной матрицы должно быть дисперсия "эта" - ...?
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
Еще не слышно разъяснение на 39:00 - 40:00
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
Можете уточнить что было написано в период с 15:00 до 16:00 (приблизительное время)
@Otaman_Warhammer
@Otaman_Warhammer 4 жыл бұрын
на 7:40 Нам Ирина Ивановна сегодня прислала определение ошибки первого рода и второго рода, но они там заданы наоборот. Как должно быть?