从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变

  Рет қаралды 69,082

王木头学科学

王木头学科学

3 жыл бұрын

在自学卷积神经网络的时候,想彻底搞明白卷积的意义。
想从卷积的定义出发,一步一步地理解,结果没有想到这个想法给自己挖了坑。
因为卷积从最初的定义,到卷积神经网络,它的含义有过3次变化。
对最初含义了解越多,越容易进入理解的死胡同。
20多分钟,让你避免和我走同样的弯路

Пікірлер: 133
@jiangli6533
@jiangli6533 2 жыл бұрын
大概看了一下,可以知道花了不少时间。但是我必须纠正一下你的概念理解还不是很准确。卷积核扣在图像中做相乘再相加的操作我们叫做点积。如果把3X3的卷积核看成一个9维向量,那么什么情况下点积的输出最大?是两个向量的方向一致的时候输出最大。也就是说图像中如果有与卷积核一样的Pattern时输出就最大。而卷积核是可以训练的,这个训练过程就是改变卷积核去找到图像中最重要的Pattern,找到这些最有效的Pattern做图像分类或其它。3X3的区域太小,只能“看到”很小的范围,解决的方式是有多层卷积层,每一层有Pooling,这样后面的层“看到”的区域就会越来越大。解决整张图片的识别问题。
@deerbeau
@deerbeau 2 жыл бұрын
谢谢你,解释得好清楚啊。
@junchaochang6962
@junchaochang6962 2 жыл бұрын
非常感谢您的解释
@helloc2606
@helloc2606 Жыл бұрын
因为这个博主是用新手的思维记录总结自己的学习过程,看完视频再看你的评论。感觉就很棒,这就是博主做到了RNA
@jiehu3634
@jiehu3634 Жыл бұрын
非常棒的解释!继续延伸一下如果把kernel size无限放大,可以就是一种Attention了
@xiaofu7883
@xiaofu7883 11 ай бұрын
相乘再相加的操作叫作点积,卷积也是这样的,点积其实也可以看做当x 是对离散值的积分,也就是相加,可以看作特殊情况下的卷积。
@hero23
@hero23 Жыл бұрын
我来试着总结一下我的理解,卷积操作的本质,在图像操作领域就是用一个滤镜来处理原图像,不同的滤镜会得出不同叠加结果,换种说法就是用不同的筛选器来筛选不同的图像特征。如果退一步做更广义的理解,就是用一个影响力函数去处理原本的数据,以得到在某种影响模式下,原数据会呈现不同的想要的结果。卷积这个词我觉得应该分开看,卷就是压缩,积代表积累,意思就是对数据进行有效性压缩,然后把区域压缩积累起来形成新的数据,不断进行如此操作,最后得到一个高度特征数据。图片识别的本质就是比对处理后的高度特征数据。
@DxDy777
@DxDy777 10 ай бұрын
能想明白,封神演绎里面的法宝之一:山河社稷图。那么再来学习“卷积”,那将是手到擒来。 山河社稷图中自成世界: 变化无端还变化,乾坤颠倒合乾坤。 思山即山,思水即水,想前即前,想后即后。 说穿了,就是用不同的函数,按照你想要某种逻辑,对那个原始图片,进行映射处理。 然后把那个进行了,幻像处理的图片再返还给你。 当然山河社稷图,更牛逼。它还能把经过幻象处理的结果,再进行空间立体化,以及再加上时间因子要素。
@dencechen6217
@dencechen6217 2 жыл бұрын
忍不住在赞一次,谢谢帮我理解,作为一个5年算法工程师,很惭愧
@zifeimo9415
@zifeimo9415 2 ай бұрын
讲的是真的好,是我看到的油管中文频道里面质量很高的,干货满满很有启发,思路清晰逻辑清楚,谢谢🎉
@WeedLee
@WeedLee 2 жыл бұрын
哎呦妈呀,这讲得太好了,解开了我多年的疑惑。谢谢!
@zhaojin6309
@zhaojin6309 2 жыл бұрын
卷积这个词还是挺难理解的,但是如果是 convolution con 代表两者相互,后面代表演化,就是指两件事相互影响演化的关系,就容易理解了
@user-wm1yb3zi9x
@user-wm1yb3zi9x 7 ай бұрын
绝对的好老师,各种比喻,各种对比,各种分析,把复杂的问题分析很有逻辑!
@user-fi4vh6wb8e
@user-fi4vh6wb8e 2 жыл бұрын
講得真好!謝謝你的影片!
@omedomedomedomedomed
@omedomedomedomedomed Жыл бұрын
吃饭这个例子,真不错!上午看了视频,下午就看到了卷积公式,感谢感谢!
@user-yg31415
@user-yg31415 4 ай бұрын
f(x) is not the amount of food at time t, it is the speed of eating: the amount of eating at t is actually f(x)dt.
@user-yn4rz1bj8i
@user-yn4rz1bj8i 2 жыл бұрын
講得非常好,幫我更了解捲積了謝謝~
@sasakevin3263
@sasakevin3263 2 жыл бұрын
看教材是不可能的,说得太对了,就喜欢你这种学习方式,点赞订阅!
@user-ov2ov7bv1v
@user-ov2ov7bv1v 2 жыл бұрын
謝謝你教得,讓我能懂卷積意思。
@NeMayful
@NeMayful 2 жыл бұрын
太棒了. 喜欢这样深入浅出, 层层递进的讲解.
@user-wr9em3ru5s
@user-wr9em3ru5s Жыл бұрын
您的讲解,对我很有帮助,多谢。
@wojohn6441
@wojohn6441 Ай бұрын
打最好的比方,深入浅出,耐心细致....... 赞!
@jingjiahuang9498
@jingjiahuang9498 Жыл бұрын
讲的超级棒 向你学习!
@lingshanliu5812
@lingshanliu5812 Жыл бұрын
yeah!真的讲得很好!谢谢你!
@ixy6864
@ixy6864 2 жыл бұрын
像木头这样表达信息清楚的作者真是少见了,大部分人学到knowledge后只会制作了一些application来装做很厉害的样子或者只把最后的结果告诉你,而不会分享他们的学习和思考过程,那些大佬的书籍都是已经懂得人写的,给不懂的人看当然很难看懂。 知识的思考过程比知识本身要更加重要。我希望我可以成为像木头那样的人
@user-wm1yb3zi9x
@user-wm1yb3zi9x 4 ай бұрын
同感,自己理解并将理解和思考的过程能如此清晰的表达,难能可贵!
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
如果一本教科書的作者無法讓一個完全不懂的初學者慢慢了解教科書的內容,那麼 我認為這本教科書的作者是一個「不合格」的作者 🎉 「懂」是一回事, 教一個不懂的人「懂」又是另外一回事 ❤
@yanglu1625
@yanglu1625 11 ай бұрын
果断关注,讲得太好了❤
@tonyching2951
@tonyching2951 2 жыл бұрын
鼓勵鼓勵..!解釋很清晰
@thomasv5144
@thomasv5144 2 жыл бұрын
謝謝你 講得太好了 很喜歡這種講解
@helloc2606
@helloc2606 Жыл бұрын
建议也可以推荐分享给同学朋友哈哈哈,这个博主需要人气
@bibo987945
@bibo987945 Жыл бұрын
謝謝王老師的精彩解說. 這些教科書的作者感覺是故意不說明透徹.要讓讀者去思考摸索一番. 但很多時候少了一個步驟細節,就跨不過哪個檻 以前學校的資料壓縮的科本,jpeg壓縮也沒放係數表.只看書本的流程是寫不出來的. 值得花錢買的書真的很少.很多都是賺了錢又不把道理說明白.缺乏職業道德.
@user-dc1ut9fi7o
@user-dc1ut9fi7o 5 ай бұрын
谢谢作者,解答了多年困惑
@woodywan4010
@woodywan4010 2 жыл бұрын
講得太好了!
@howardyin
@howardyin Жыл бұрын
谢谢耐心讲解
@skyfall2099
@skyfall2099 Жыл бұрын
谢谢介绍,讲得太棒了
@user-wm1yb3zi9x
@user-wm1yb3zi9x 4 ай бұрын
这个视频我看了好几遍,感觉是真金白银的思考和理解,非常难得的分享。
@sophiakong7081
@sophiakong7081 10 ай бұрын
讲得很好!
@dencechen6217
@dencechen6217 2 жыл бұрын
感谢帮我重新理解了高数的卷积,快10年了,
@pony_1024
@pony_1024 2 жыл бұрын
好赞的讲解
@bohuang5586
@bohuang5586 Жыл бұрын
对你的敬仰之情,犹如滔滔江水延绵不绝!
@jianhuang0124
@jianhuang0124 3 ай бұрын
官方教材永远是最好的。
@shanjiang-fk2oz
@shanjiang-fk2oz Жыл бұрын
很棒,感谢分享
@haopang-nm4bm
@haopang-nm4bm Жыл бұрын
讲的真的很好
@jasonluobo6849
@jasonluobo6849 Жыл бұрын
讲的非常好👍很用心,三连
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
我是氣功及太極老師: 我以為人類可以分成兩類: 一種是「不會運氣」,一種是「會運氣」 ❤ 我認為懂「人工智慧」比「會運氣」更重要 🎉
@user-jc4mc7kq5n
@user-jc4mc7kq5n 6 ай бұрын
很棒,支持。
@user-qs7mm8uo8u
@user-qs7mm8uo8u 2 жыл бұрын
继续努力,越做成就越好
@user-kt3bx9sj8m
@user-kt3bx9sj8m 2 жыл бұрын
很讚的解說,清楚了解卷積擷取圖像特徵的原理
@onlyjimmy4ever391
@onlyjimmy4ever391 2 жыл бұрын
受益匪浅
@user-pj2uf2uk7o
@user-pj2uf2uk7o 4 ай бұрын
主播真是又好又帅又聪明。
@paulxie1716
@paulxie1716 8 ай бұрын
非常精彩
@nuaaliuxjob1
@nuaaliuxjob1 4 ай бұрын
很好,这个例子还可以再清楚一些。就是把食物消化曲线沿时间平移一下就更清晰了。
@user-sh7wx1cc7m
@user-sh7wx1cc7m 2 жыл бұрын
讲的太好了,我一个学化学的竟然听懂了
@user-on6kf3vf6w
@user-on6kf3vf6w Жыл бұрын
大学的时候只按卷积定义做一些练习操演,根本没有理解真正的意义。看了这个视频,觉得受益匪浅。而且后面又有网友再深入解说,是的内容更加完善。
@connormarcus1997
@connormarcus1997 2 жыл бұрын
补充一下,卷积可以看成随机输入x经过稳定系统y后的输出
@lihunter4437
@lihunter4437 2 жыл бұрын
木头大拿的每一个视频都值得认真看
@tsanyuwang1861
@tsanyuwang1861 8 ай бұрын
你太棒了!!!
@helens7185
@helens7185 2 жыл бұрын
刚才一直不明白f和g之间为什么要是乘法关系,后来自己又想了想,大概理解了,g表示单位食物在每单位时间内的消化率,f则表示吃了多少食物,所以要乘以g这个单位时间内的消化率,得出实际吃进去得食物总共消化了多少。
@ztc106
@ztc106 2 жыл бұрын
精彩! 解釋了數學公式背後的物理意義
@user-zs8ug2yx6e
@user-zs8ug2yx6e 9 ай бұрын
影片有料
@user-TweetyBird
@user-TweetyBird 4 ай бұрын
我也搜了好多,终于找到你
@nbsboy1
@nbsboy1 2 жыл бұрын
学习的方法值得学习
@KennethKamhw
@KennethKamhw 2 жыл бұрын
講解得太好 受教了
@skenming
@skenming 2 жыл бұрын
代入初學者的學習過程,從零開始把學習的誤區都說得明白,非常幫助理解。
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
機器學習書籍中,都未提及 Converlution Integral 🤔
@JallahBomber
@JallahBomber 2 жыл бұрын
感谢
@jiangxu3895
@jiangxu3895 2 жыл бұрын
讲得好,但是到了图像处理的这块儿,具体计算跟之前提到的计算逻辑不一样。前面提到的是f(x-1, y-1)*g(-1,1) + f(x, y-1)*g(0,1) … 没有体现出卷的特点。难道一定要卷再乘再求和么?
@stevenwong1099
@stevenwong1099 Жыл бұрын
透彻
@toypark3637
@toypark3637 4 ай бұрын
王老師是學數學本科的嗎
@joetsai4676
@joetsai4676 2 жыл бұрын
卷积核和过滤器本质上是一个东西,不是根据特征提取结果区分的。
@liuzq7
@liuzq7 Жыл бұрын
AI 里的"卷积(convolution)" 其实正确的叫法应该是 Cross-correlation
@alchen75
@alchen75 4 ай бұрын
解釋的對入門的人很有幫助,留言裝B的人倒是不少
@liangwu290
@liangwu290 Жыл бұрын
你这说的也太好的吧,我一个艺术生都听懂了。刚学了微积分后,到处找了卷积,都没找到,在你这搞明白了,谢谢了
@xuelichen2497
@xuelichen2497 Жыл бұрын
你可能是艺术生里最懂卷积的了……
@paulxie1716
@paulxie1716 8 ай бұрын
你个艺术生为什么要懂卷积,这世界实在太卷了
@MaleGeminiCat
@MaleGeminiCat 4 ай бұрын
藝術生來學微積分和卷積?這個世界卷到令我瞠目結舌啊! 怎麼回事啊,我的天!
@shijzhen
@shijzhen 11 күн бұрын
加油
@Zac-eg3mt
@Zac-eg3mt Жыл бұрын
不错
@jinxianlai
@jinxianlai Жыл бұрын
卷积核提取特征真得好酷
@zld190
@zld190 2 жыл бұрын
讲的这么好,订阅数却这么少,这很不科学
@markhu3148
@markhu3148 5 ай бұрын
牛!
@hughrao
@hughrao 4 ай бұрын
太牛啦
@zhigangxu2007
@zhigangxu2007 4 ай бұрын
卷积就是不进位的乘法!一句话就可讲清楚!😊
@dongs3783
@dongs3783 2 жыл бұрын
你为什么不把九个点摊平,flatten,这样解释不更方便吗?而且图像识别实际用的时候,也是这样做的。
@Bran1812
@Bran1812 4 ай бұрын
吃饭的例子不是很好,因为数学上讲,卷积是输入*kernel=输出;不是输入*输出=存量,毕竟是加权求和嘛;吃饭的例子可以改成这个人一直吃,8点吃1个馒头,9点吃2个烧饼,10点喝了一碗汤,最后算出来一天吃了多少热量。我看了很多卷积,觉得我这个理解是正确的。欢迎讨论。
@sagreal.h8398
@sagreal.h8398 2 жыл бұрын
说的明白
@lkay58
@lkay58 9 ай бұрын
那个up主是谁
@paulxie1716
@paulxie1716 8 ай бұрын
吃饭函数这个感觉有点不对劲,吃饭函数的积分应该不是吃了多少饭,量纲上对不上。
@HSWang-ym2mm
@HSWang-ym2mm 5 ай бұрын
就是加权滑动平均
@user-fu4er4ir7k
@user-fu4er4ir7k Жыл бұрын
文中的动画用什么软件制作的?
@lkay58
@lkay58 9 ай бұрын
同问
@lkay58
@lkay58 9 ай бұрын
8。09 是不是不对啊
@wayne8863
@wayne8863 2 жыл бұрын
积分好像不属于高等代数的内容
@user-TweetyBird
@user-TweetyBird 4 ай бұрын
老师,救我😢
@faungding6948
@faungding6948 2 жыл бұрын
點讚,幫我完成了我今天晚上要交的小論文
@user-yv7hk7tg2f
@user-yv7hk7tg2f 6 ай бұрын
卷不卷对我来说不重要,不过天天学习深度学习和机器学习方面的知识快把我卷炸了
@user-er8ro4hv1e
@user-er8ro4hv1e 2 жыл бұрын
看清楚,到底是一碗还是两碗🥣
@sunisme-yb9hx
@sunisme-yb9hx 4 ай бұрын
您好,可以联系您那?8)
@dengyuliu5847
@dengyuliu5847 Жыл бұрын
卷不卷其实不重要,两个函数是对称或者反对称的时候,是不需要对其中一个函数进行旋转的。函数本身本质就是处理输入得到输出,在计算机图像方面,重点利用卷积运算可以提取各类特征,方便后续。太纠结卷这个概念是很容易进沟。
@leesteven2003
@leesteven2003 9 ай бұрын
图像的卷积属于局部的卷积
@liangwu290
@liangwu290 Жыл бұрын
额 11 分 10 秒那 卷积像素相加, 我没看明白,为什么是 -8 加在一起不应该是 0 0 0 0 0 0 0 0 0 8 加在一起是个 正 8 吗
@user-jr6lb7hd2k
@user-jr6lb7hd2k Жыл бұрын
我的理解应该是视频编辑错误了,不用纠结,这里主要表达的是计算之后的像素值即可
@user-TweetyBird
@user-TweetyBird 3 ай бұрын
我也同问。😂
@fs2820
@fs2820 2 жыл бұрын
核心知识点,1972年的花花公子杂志。😂
@zhigangxu2007
@zhigangxu2007 5 ай бұрын
卷积就是不进位的乘法!
@davidguan2246
@davidguan2246 3 ай бұрын
被你这么一讲,我这个自以为懂卷积的都觉得自己不懂了。用线性系统里某一时刻的输出等于之前所有冲激响应的叠加来讲不是更清楚吗。
@user-pc4jj7cs7i
@user-pc4jj7cs7i Жыл бұрын
都不用开倍速👍
@tomyu5403
@tomyu5403 29 күн бұрын
这个就是倍速了。应该是UP主的不稳定输出和2倍输出速率的乘积。
@klkl8123
@klkl8123 2 жыл бұрын
感觉差不多就相当于加权,不过加权的时候对自变量有一个反转的操作。头一个例子里这种反转是有物理意义的,因为时间越早t越小,但是对应的时间间隔却更大。但是后面的例子根本没有必要反转吧,直接定义成周围的加权求和不就可以么,为啥一定要叫卷积
@wkaing
@wkaing 2 жыл бұрын
怎么说呢?我的这个视频,其实是先把这种计算叫做卷积认定为是事实了,然后事后去解释它为什么可以叫很多名字,偏偏要被叫卷积。 我的这个解释的作用,本质上是在给自己一个安慰,告诉自己卷积这个名字其实是有道理的,别继续困惑了。 至于它叫卷积真正的原因,可能有很多历史原因,当初提出图像的这种操作的时候,就是从卷积计算发展过来的,只不过后来发现其实叫做其他的更合适。这就像是化石始祖鸟,其实不是鸟,是恐龙,只不过历史原因当初叫成了鸟,已经既成事实了,那以后就把它当做是一个传统就行了。
@jiangli6533
@jiangli6533 2 жыл бұрын
@@wkaing 卷积就是去match pattern。你可以这样理解。
@helloc2606
@helloc2606 Жыл бұрын
@@jiangli6533 你的脚手架呢,哈哈哈
@user-nv1wc3xx4q
@user-nv1wc3xx4q 4 ай бұрын
學校讀書都不清楚這是啥, 看了影片才清楚, 教學人才阿
@user-if2mq2jv8k
@user-if2mq2jv8k 2 жыл бұрын
听君一席话,胜读十年书
@zhangperry6949
@zhangperry6949 4 ай бұрын
个人觉得,这个“卷”只是翻译错误,类似“有理数”这样的误翻译
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
Converlution Nurual Network , CNN 🎉 Converlution Integral 🎉
@eroo2271
@eroo2271 Жыл бұрын
机器学习中别理解函数的物理意义,很多时候要的只是他的曲线而已。
@pangelaine
@pangelaine 6 ай бұрын
卷積就是把你們擰巴起來😂
什么是卷积神经网络?卷积到底卷了啥?
15:56
妈咪说MommyTalk
Рет қаралды 77 М.
Gym belt !! 😂😂  @kauermtt
00:10
Tibo InShape
Рет қаралды 9 МЛН
Nastya and SeanDoesMagic
00:16
Nastya
Рет қаралды 11 МЛН
🫨揭秘:读完这本书我懂了AI的本质
7:10
the Imperfectionist Lab
Рет қаралды 11 М.
人脸识别啥原理?人工智能(二)卷积神经网络
21:41
李永乐老师
Рет қаралды 354 М.
7. 程序员的性格为什么那么轴,那都是有原因的
29:47
王木头学科学
Рет қаралды 5 М.
神奇的零知识证明!既能保守秘密,又让别人信你!
17:34
李永乐老师
Рет қаралды 1,1 МЛН
Top 50 Amazon Prime Day 2024 Deals 🤑 (Updated Hourly!!)
12:37
The Deal Guy
Рет қаралды 1,4 МЛН
Как бесплатно замутить iphone 15 pro max
0:59
ЖЕЛЕЗНЫЙ КОРОЛЬ
Рет қаралды 904 М.
Сколько реально стоит ПК Величайшего?
0:37