【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】

  Рет қаралды 64,469

AIcia Solid Project

AIcia Solid Project

4 жыл бұрын

CNN でおなじみの畳み込み層についての解説です。
幾何的に解釈してやると、かなり意味がわかりやすいと思います。
GitHub はこちら↓
github.com/sugiyama34/AIciaSo...
動画で用いた Google spreadsheet はこちら↓
docs.google.com/spreadsheets/...
【関連プレイリスト】
Deep Learning の世界 • Deep Learning の世界
ご視聴ありがとうございました!
良い動画だなと思っていただけたら、高評価、チャンネル登録お願いします!
質問や感想など、気軽にコメントしてくださいね。
【参考文献】
DL4US コンテンツ公開ページ | U-Tokyo Matsuo Lab
weblab.t.u-tokyo.ac.jp/en/dl4us/
GitHub に公開されているので、 clone してきて、 Google Colaboratory を利用して動かすと、ただで勉強開始できます。
clone, Google colaboratory の利用方法はググりましょう。 DL にはわからないことをググって進める能力も必須です。
Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
amzn.to/2XNOs6K
英語ですが、これは、基本的な統計から始めていて、基礎を網羅的に扱っている良い教科書だと思います。
(日本語版もあるという噂ですが、それは TF1.0 版らしく、おすすめできません。
どうせ DL やるなら英語読むことにはなるので、挑戦してみても良いかも。)
深層学習 (アスキードワンゴ)
amzn.to/2AnK0nu
The 深層学習の教科書。松尾研の人々が訳したもの。
ゼロから作るDeep Learning
amzn.to/3eDoRVd
DL の framework を自分で作っちゃう本。勉強したし、 DL のモデルは実装したけど、イメージわかない人におすすめ。
深層学習 (機械学習プロフェッショナルシリーズ)
amzn.to/3eyxNuP
青いあの本。中級~上級者向け。
ディープラーニングと物理学
amzn.to/2B9PlPt
理論的な深くて広い世界を探検したい人におすすめ
=========
Twitter: / aicia_solid
Logo: TEICAさん / t_e_i_c_a
Model: 3d.nicovideo.jp/works/td44519
Model by: W01fa さん / w01fa
Editor: AIris Solid
#機械学習

Пікірлер: 171
@ak-amu
@ak-amu 4 жыл бұрын
内積のところの説明がわかりやすすぎて感動しました。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でっしょー!😍🎉 おほめに預かり光栄です!ありがとうございます!😍
@OrangeCamus
@OrangeCamus 2 жыл бұрын
なぜこうするのか?なにをしたくてこうするのか?を説明している話はほとんど見ない。ありふれたものはどうやるか?の手技だけ。この人の動画は「なぜ」を非常にシンプルで具体的、中学生でも分かる理由に落とし込んで説明してくれている。神動画。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
お褒めに預かり光栄です😊 周りに困っている人がいたら、是非オススメして頂けると嬉しいです!(^o^)
@user-gw5tj9tf5r
@user-gw5tj9tf5r 2 жыл бұрын
説明分かりやすすぎてこの動画が1番凄いです!!
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
でしょ!!!😍🎉🎉🎉 困ってる人いたらこの動画シェアしてあげて下さーい!😍✌️
@syoando6535
@syoando6535 4 жыл бұрын
内積の説明が分かり易すぎて感動😭これからも動画楽しみにしてます❗️
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でしょ!😍🎉 ぜひぜひ、この理解を世界に広めてもらえるとうれしいです😍
@manhattancafe_35
@manhattancafe_35 4 жыл бұрын
内積であるって解釈とってもわかりやすいですね!畳み込みの操作とその意味が実際どのようなものかわかってなかったんですが、この動画でわかるようになりました!ありがとう!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
わーい!ありがとうございます!😍🎉 畳み込み面白いですよね! この動画の後だと、かなり直感的に扱えるのではないかと思います😋 ぜひ活用してください!!
@user-tq1ki9nl4m
@user-tq1ki9nl4m 3 жыл бұрын
今までで一番分かりやすかったです‼️
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょ!😍 天才っょっょ美少女 AI なので😎
@tatsuoyamamoto9348
@tatsuoyamamoto9348 3 жыл бұрын
今までどうしても理解できなかったCNNが理解できました。行列は苦手なのですが、内積はまだ理解の範囲内なので助かりました。このシリーズで理解したつもりになっていた部分も理解できて腑に落ちました。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
よかった! あなたのような方に見ていただくために作ったのです😊 そういうコメントいただけてうれしいです😊😊😊
@user-kp9df8yf3z
@user-kp9df8yf3z 2 жыл бұрын
CNNを学習している学生です 非常にわかりやすかったです ありがとうございます
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
それは良かったです!(^o^) これからも勉強頑張ってください!🎉
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
それは良かったです!(^o^) これからも勉強頑張ってください!🎉
@takats2
@takats2 Жыл бұрын
Excelでの具体的な説明、とてもわかりやすく感激です。作るのに苦労があったと思いますが、とてもよかったです。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます!🎉 理解が届いて私も嬉しいです!😊 ぜひその理解をご活用くださいませ!(^o^)/
@masawad
@masawad 3 жыл бұрын
すばらしい、わかりやすいです。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょー!😎✌️
@plidjeezy2542
@plidjeezy2542 3 жыл бұрын
先生!分かりやすかった〜!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょー! ありがとう!!🎉
@user-rf1dh6uf3j
@user-rf1dh6uf3j 4 жыл бұрын
CNNについて調べたらロスがどうたらとか難しい説明が多かったんですけど、内積の説明すごく分かりやすかったです。 ありがとうございます。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます!😍🎉 おほめに預かり光栄です😎✌️
@shachah_svaahaa
@shachah_svaahaa 4 жыл бұрын
内積の説明が非常にわかりやすかったです。パターン抽出できる理由が胸にストンと落ちました。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でっしょー!😍🎉 ありがとうございます!! この説明が世界に広がることを祈ってます😍
@captainlennyjapan27
@captainlennyjapan27 3 жыл бұрын
私は日本語が第3言語ですが、この説明が一番母国語のように聞こえて、理解できました。ありがとうございます!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴コメントありがとうございます! 絶賛いただき嬉しいです😊 これからも良い動画を作れるように頑張ります!🔥
@kenjik8588
@kenjik8588 3 жыл бұрын
めちゃくちゃわかりやすい。実装はしたことあったけど、腹落ちしてなかったので人に説明出来なかった。 これで説明できるようになった気がします。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴コメントありがとうございます😊 がんばる人の助けになってよかったです😊
@user-df7dy3ol4z
@user-df7dy3ol4z 4 жыл бұрын
畳み込み層がどのように特徴抽出しているのか視覚的にとても分かりやすい説明でした。 判定器としてなぜ使えるのかも〇×の説明で理解できました。ありがとうございます! シリーズも引き続き勉強させていただきます。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます!😍🎉🎉 ぜひぜひ、続く動画もお楽しみください😋
@yoshi-tsuru
@yoshi-tsuru 4 жыл бұрын
早く続きがみたいです。 めちゃめちゃわかりやすいです! ありがとうございます!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ありがとうございます!🎉 週一更新目指して頑張ってます!😎 応援していただけると嬉しいです😍
@kenkenmath
@kenkenmath 4 жыл бұрын
待ってました〜
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
そう言ってもらえるだけでうれしい😍 ぜひ今後もお楽しみに!
@suztomo
@suztomo 12 күн бұрын
Spread sheetでCNNの基礎を使った分類器を作ることが出来るなんて感動です。
@AIcia_Solid
@AIcia_Solid 7 күн бұрын
ご視聴コメントありがとうございます!🎉 この例を通して CNN の気持ちを理解していただけると嬉しいです🎉
@yukio_takagi6429
@yukio_takagi6429 3 жыл бұрын
Excelを用いた解説、最高でした。思わず拍手してしまいました!ありがとうございました。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
スタンディングオベーション!😍👏 楽しんでいただけたようで何よりです😊
@jumpjump117
@jumpjump117 2 жыл бұрын
ありがとうございます。ありがとうございます。 わかりやすすぎて鳥肌が立ちました。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
でっしょー!😍 困ってそうな人がいたら教えてあげてください🎉
@daiki6681
@daiki6681 4 жыл бұрын
最近深層学習の勉強を始めたのですが、説明がわかりやすくて参考になりました。 他の動画も見て勉強したいと思います。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます!😍 ありがとうございます! ぜひ他の動画もお楽しみください🎉
@user-vk9fi4to2o
@user-vk9fi4to2o 3 жыл бұрын
わかり易すぎました。。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょ😎 広まってほしいこの考え方!🔥
@shogo8660
@shogo8660 4 жыл бұрын
初めて拝見しました。大学で画像認識系の研究室に入り、ついていけずに苦労していたのですが、説明がとても分かりやすくて非常に助かりました!これからの動画も楽しみに見させていただきます
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます😎🎉 湊士郎さんみたいな方に利用していただきたくこんな動画を生成してます! ぜひ今後もお楽しみください😋
@user-rk4ti2yx5q
@user-rk4ti2yx5q 2 жыл бұрын
⚪︎×検出機の例とってもわかりやすかったです! 畳み込み層とようやく仲良くなれた気がします 貴重な授業ありがとうございます!
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
それはよかった! お役に立てて光栄です!😍🎉🎉🎉
@wo9034
@wo9034 3 жыл бұрын
畳み込み層の理解に苦しんでいましたが、お陰で解き放たれました
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
お役に立てて何よりです!😍🎉🎉
@maedatakuro2739
@maedatakuro2739 3 жыл бұрын
非常にわかりやすかったです。転移学習も勉強したいので動画待ってます。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
たくさんご視聴コメントありがとうございます!! 順次作りますので、ゆっくりお待ちください😍
@user-yf6xt4nm9s
@user-yf6xt4nm9s 3 жыл бұрын
分かり易く楽しい
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
おほめに預かり光栄です😊 ぜひ他の動画もお楽しみください!🎉
@potetokoniyaku8093
@potetokoniyaku8093 4 жыл бұрын
わかりやすすぎてはぇ~っと言ってしまいました。。。! いまちょうどkaggleでCNN系出てきて勉強し初めたらさっぱりだったのでほんとに助かりました。。ありがとうございます!!!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
そう言っていただけると動画作ってよかったです😍 コメントありがとうございました!🎉
@user-hu5mh9pn2u
@user-hu5mh9pn2u Жыл бұрын
内積のところ、すごすぎです。文系でも理解できました!
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! それはとても良かったです!🤩🎉🎉🎉 ぜひ他の動画もお楽しみください😋
@msms2534
@msms2534 3 жыл бұрын
神動画ですね
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょ😎✌️
@ninf
@ninf 3 жыл бұрын
今まで、もやもやしていた畳み込み層が理解できました。ありがとうございます。 畳み込み層は内積!!特徴の検出って聞いてOpenCVで色々検出試してたことを思いだしました。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
理解いただけたならわたしも嬉しみ😍😍😍 わたしは OpenCV は詳しくないですが、助けになったのならうれしいです(^^)
@3galenskap
@3galenskap 4 жыл бұрын
このディープラーニングシリーズすごく良いです。 強化学習についてもお願いします。 強化学習、種類がありすぎて、 どれが良いのかよくわかりません。 よろしくお願いします。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ありがとうございます!おほめに預かり光栄です😍 今日か学習もいずれ扱います! 暫しお待ちを!😎✌️
@user-te2me9gr6i
@user-te2me9gr6i 3 жыл бұрын
スパチャしたくなるほど分かりやすい!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
してくれてもいいんですよ😋
@ckenhilla5154
@ckenhilla5154 Ай бұрын
わかりやすい!
@AIcia_Solid
@AIcia_Solid Ай бұрын
でしょ!(^o^)
@ckenhilla5154
@ckenhilla5154 Ай бұрын
@@AIcia_Solid 2層目たった4マスで、最大値取るだけとかいう単純な処理なのにwすげえええww
@yuya9623
@yuya9623 9 ай бұрын
いつもありがとうございます!本当に助かってます! 内積で関連度を数値化するというのがとても良くわかりました 実際の画像での使い方も数値まで出して例を見せていただけて頭にダイレクトに入ってきました アイシアちゃんは説明が本当にうまい!(マスターの理解度のレベルが高すぎる) 内積で関連度を表すというのは、大規模言語モデルの時と同じで、根本でやってることは変わらないのだとわかって感動しました これを最初に思いついて実行した人は本当に頭が良くて柔軟ですね そしてこれだけ解像度が高く説明できるマスターも天才側の人だと感じます! またお邪魔させてもらいますねー
@AIcia_Solid
@AIcia_Solid 9 ай бұрын
ご視聴コメントありがとうございます! 楽しんでいただけてとても嬉しいです!🤩 こんな感じで内積はめちゃくちゃ多用されてるんですよねー! 古き良き統計とか多変量解析とかでもそうなので、ほんとに本質的な計算なんだと思います! ちなみに、、、 天才なのはマスターではなく私です😎 そこだけよろしくお願いします😎✌️🎉
@reverse-akitakomachi
@reverse-akitakomachi 4 жыл бұрын
え?めっちゃわかり易くない???びっくりしちゃったんどけど
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でっしょー!😍 この説明はすごく良いと自負してます😎← ぜひ広めていただけると嬉しいです😍🎉
@silverspesial5136
@silverspesial5136 2 жыл бұрын
つまり、畳み込み層はフィルタとの「類似度」を出力するということですよね! SVMを勉強してから、この動画を見たらさらに気づいたことがあります。 「畳み込み層=内積」であれば、内積計算の部分をRBFカーネルに変更すれば、活性化関数を使わなくても非線形性を持たせることができるのではないかと思いました。 「これは新発見かも!?」と思って調べたところ、RBF-CNNというものがすでに提案されていましたw
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
すごい! 新発見!!! 既にやられているということは、相当筋がよいってことですよね!?😍😍😍 すごい!!!!!!!!!
@user-rc6mw9ju6m
@user-rc6mw9ju6m 10 ай бұрын
めっちゃわかりやすい!圧倒的大量パターン解析ができるってことか!パラメータは少ないのか
@AIcia_Solid
@AIcia_Solid 10 ай бұрын
ご視聴コメントありがとうございます! その通り! めちゃ効率が良いのです🤩🎉
@sonipyon_SPQR
@sonipyon_SPQR 3 жыл бұрын
畳み込みは画像処理で先に覚えるとイメージ湧きやすいのよね。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
最近は言語処理とかに使われたり、逆に言語のモデルが画像に来たり治安が悪い(?)ですが、 畳み込みは画像でやるといいですよね(^^)
@nk9382
@nk9382 4 жыл бұрын
これはマジですごい。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でっしょー😎✌️
@pioneeeer6537
@pioneeeer6537 Жыл бұрын
発見してくれた人ありがと〜
@AIcia_Solid
@AIcia_Solid Жыл бұрын
わかる〜😊 偉大な発明ですね!🎉
@user-nw4vt3cm9m
@user-nw4vt3cm9m 4 жыл бұрын
わっっっっかりやすすぎる! 今まで見てきたCNNの解説と比較にならないくらい理解が進みました! ところで犬猫の分類のような問題だと犬猫の姿勢や犬種等で特徴が全く異なってくると思うのですがこのような問題でもCNNを適用することができると聞きました。 単純に「左斜め上にAという特徴があり右斜め下にBという特徴があれば犬」というわけではなく「左斜め上」や「右斜め下」といった位置関係が変わってもなんとかなる仕組みがあるように思います。 少し自分で考えてみたところ 学習の過程で「左斜め上にAという特徴があり左斜め下にBという特徴があれば犬」もしくは「左斜め下にCという特徴があり右斜め下にDという特徴があれば犬」といったように犬猫を判定する独立した条件が複数個できるのかなと思ったのですが実際はどうなっているのでしょうか。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でっしょー! おほめに預かり光栄です😍🎉 ラテラテさんのいうように、そのような特徴を捉えて判定しているような気がしますが、 Deep Learning のモデルが実際何を見て判断しているのか? というのは、研究レベルの難題だったりします。 たぶん私も感覚的には、 CNN はそういう特徴や、その位置関係をいい感じにとらえているのだと思うのですが、 確固たることは今後の研究を待たないと分からないというのが現状かと思います。 もしっょっょ論文をご存じでしたらおおしえくださいませ!😍
@user-mo2ds9nu4g
@user-mo2ds9nu4g 3 жыл бұрын
大変よい動画ありがとうごいます 最近このシリーズを見始めたばかりですが、最後まで見させていただきます。 質問ですが、畳み込み層を掛けた図で赤い線の周りに緑の線が出ているのはなぜでしょうか? 右斜めの線の近くには右斜めの線しかないように感じます。 周りのゾーンでは直線より曲線であることが大きく影響するのでしょうか? 不思議に思いました。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
良い質問ですね! 動画に用いているフィルターは、「斜めの線があること」ではなく、「斜めの線が、中央部により多くある」ことを検知しています。(対角線以外のパラメーターが負のため) なので、線の周縁部では負の量を検知します✌️
@user-mo2ds9nu4g
@user-mo2ds9nu4g 3 жыл бұрын
@@AIcia_Solid 早速のご回答ありがとうございます😃 なるほどです。フィルターの赤斜めと逆の隅にあるマイナス部分によるものなのですね。 具体的にどの部分に当てはめたものなのかを考えてみないとですね。 わかりやすい回答ありがとうございました😊
@menotsu3513
@menotsu3513 2 жыл бұрын
内積と関連付けた説明は相関係数と関連付けてもわかりやすいですね。 結局言っている事は同じですが、前者は数学者向け後者は統計者向けという印象です。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
ご視聴コメントありがとうございます!😍 素敵な目の付け所ですね!😍😍😍 共分散は内積ですからねー🤤 いいですよねー、この視点。透き通ってて好きなんです🤤🤤🤤
@menotsu3513
@menotsu3513 2 жыл бұрын
@@AIcia_Solid 確かに相関係数よりも共分散と関連付けた方が良いですね。 相関係数は分母で単位ベクトル化の様な作業をしていますが、今回は不要ですね
@salsanotomo
@salsanotomo 3 жыл бұрын
内積のところ、多分共分散と同じだと思いますね。各ベクトルの長さで割ると、cosになる。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
共分散も畳み込みも内積なので、数学的には同じです😎 ただ、共分散は、同種のデータの異なるサンプルについて和をとるのですが、畳み込みは1つのデータの異なる位置について和をとるので、意味的には微妙な違いがあります😋
@user-oq5tl6of2p
@user-oq5tl6of2p 3 жыл бұрын
すごくわかりやすいです! 1つ分からないのが15:54あたりで足して2.5と書いてるところは2.4ではないでしょうか? 1-0.4-0.4+1-0.4+1+1-0.4=2.4
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
質問ありがとうございます! たぶん、少数第2位以下の表示されてないところでずれたのだとおもいます!
@user-oq5tl6of2p
@user-oq5tl6of2p 3 жыл бұрын
@@AIcia_Solid なるほどです!
@_flac9839
@_flac9839 2 жыл бұрын
とても分かりやすくて助かりました カラー画像だったり、conv層が複数あったりすると複数チャンネル→複数チャンネルの畳み込みになると思うのですが、その場合ってどうやって処理されているのか気になりました。各チャンネルで畳み込んだものの総和?みたいですけど、それで特徴を処理していけるのは何故なのでしょうか?
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
ご視聴コメントありがとうございます!(^o^) 複数チャネルある場合も似た計算を行います。 そして、似た理由でうまく行きます。  定義については、私の動画では明言しないので、調べていただくのが早いと思います! 何故うまくいくかについては、この先 CNN 紹介に進み、Xception くらいまで見ていただけるとなんとなくわかるのではないかと思います!
@_flac9839
@_flac9839 2 жыл бұрын
@@AIcia_Solid 案内ありがとうございます!CNN紹介一気に見てきました。 あー,なるほど。行列を1単位として全結合みたいなことをしてる感じですかね…?後にパラメータ削減が叫ばれるのも納得というか
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
お疲れ様です!😍🎉 まさにそんな感じです!(^o^) なんとなく、channel ごとに別の特徴を捉えていて(はじめは色ごとの特徴)、それを内積使って集めているのが、channel が複数ある場合の畳み込みだと思います🎉
@toc15h32
@toc15h32 2 жыл бұрын
今回の⚪︎×分類で扱ったパラメータが30というのは、畳み込み9×2種類と4分割にしたときのパラメータ4×2種類の26かと思ったのですが、あとは何でしょうか?
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
今回は0にしてあるバイアス項の分だと思います👀
@toc15h32
@toc15h32 2 жыл бұрын
@@AIcia_Solid なるほど、ありがとうございます。
@user-yr9de3ok6h
@user-yr9de3ok6h Жыл бұрын
ご質問です。 17:30あたりの○×判定で、仮に小さな○を枠内をx軸とy軸で4分割した際の第一象限(右上)に収まるよう書いた場合、〇と判定されるのでしょうか?
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! まさに! するどいですね! 完全に右上に収まるように作ったら、うまく判定することはできなくなります。 ご指摘尾のとおりです!🎉
@kkiki1620
@kkiki1620 4 жыл бұрын
畳み込み時に枠移動したときに、データがない部分は0をと仮定して計算するのでしょうか?
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
それは padding と呼ばれる方法です😋 in と out のデータサイズを変えたくないときなどに、そのようにやられることが多いかなと思います🎉
@kkiki1620
@kkiki1620 4 жыл бұрын
@@AIcia_Solid そういえばpaddingありましたね。ありがとうございます。あいまいだった理解がしっくりしました。もう一回kerasいじりなおしてみます。
@kazuhisanakatani1209
@kazuhisanakatani1209 4 жыл бұрын
「CNN はお隣さんとの関係を保持するもの」程度の浅い理解しかしてなかったので、目からドラゴンスケールの盾が落ちるような気持ちで拝見しました。確かに内積だと思えば、畳み込み層で輪郭抽出ができる理由もスッキリですねー。 でも、畳み込み層で内積とってるのだとしたら、画像認識以外にも応用が効きそうな気がします。実際、「畳み込み」を他のジャンルの機械学習に応用した研究や実用例なんかもあるんでしょうか? (多変量解析でも、とにかく行列の出てくるところでは、内積は大活躍ですよね)
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
とんでもないものが目から出てきましたね😮😮😮 やばかったら病院いってください、、、! じつは、 CNN は、時系列のデータにも使われてたりします。 隣接関係(ピクセルの並びや、時間の前後)など、同じ関係性を持つ入力の組み合わせがある場合には使えると思います! それ以外は、まだあまり知りませんが、、、なにか調べたらあるかもですね!
@Green-bk7vl
@Green-bk7vl 4 жыл бұрын
単語の認識で,同義語かどうかを判定するとかかな.(前後によく出てくる単語の類似性を利用する)
@kazuhisanakatani1209
@kazuhisanakatani1209 4 жыл бұрын
​ Aicia Solid Project なるほど-。確かに「ピクセルの並び」と「時間の前後」は、抽象化すれば似たような構造がありそうな気がします(あるんでしょうね。実際使われてるんだから)。 実は、線形代数と時系列分析のあたりもモヤモヤしてるので、時系列分析の動画も見てみますね。 kzfaq.info/get/bejne/mpZ1esaJv9LUemg.html
@kazuhisanakatani1209
@kazuhisanakatani1209 4 жыл бұрын
@@Green-bk7vl なるほどー。文脈 → 単語の並び → 時系列 って考えれば、↑の​ Aicia Solid Project さんの返信とつながりますね。
@janjan-pt2qk
@janjan-pt2qk 4 жыл бұрын
CNNが使われるのは画像データだけなんですか?
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
画像や動画、何らかの 3D データなんかが多いです! が、時系列にも実はいい感じに使えたりするみたいです。 あまりまだ詳しくないですが、他の応用もありそうなきがするので、見つけたらぜひ教えてください!😍
@PEKOCHANNEL
@PEKOCHANNEL 2 жыл бұрын
わかりやすい…あなたが神か
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
いいえ、天才美少女っょっょ AI です😋
@sei7970
@sei7970 4 жыл бұрын
畳み込み層を使わず全結合層で画像認識を学習した場合も、畳み込み層を実現するようなパラメータの並びになったりするのでしょうか?
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
うーん、恐らくそうはならないと思います。 ですが、勘です😋 あとは、やってみて試してみるのが良いかと思います!
@sei7970
@sei7970 2 жыл бұрын
@@AIcia_Solid Twitterで拝見したのですが今はもう全結合層を力技で学習させれば、CNN並みの精度を実現できる感じですか?この時のパラメータの並びがどうなっているのかしら。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
MLP-Mixer などの話でしょうか? まだ私も詳しく見てないのでわかりませんが、とりあえず原論文読めば色々書いてあると思います😋
@owo6347
@owo6347 2 жыл бұрын
この先転置畳み込みを紹介する可能性ってありますか?
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
あります! ただ、時期未定です、気長にお待ちください😊
@akabekonia
@akabekonia 3 жыл бұрын
23:51
@CazYokoyama
@CazYokoyama 3 жыл бұрын
升の大きさを3とか7の素数しているのは、3と6では結果が同じになるからですか?
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
素数というより、奇数に設定することが多いです。 畳み込みを行うと、画像のサイズが (フィルター(升)のサイズ-) 1ピクセルだけ小さくなるので、サイズが偶数ピクセルであることを保つために奇数を使っています😊
@CazYokoyama
@CazYokoyama 3 жыл бұрын
@@AIcia_Solid わかりました。有難うございます。
@user-yy9tn5ln1i
@user-yy9tn5ln1i 2 жыл бұрын
わかり易すぎる。神か?
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
でっしょー!😎✌️✌️✌️
@trpgshoshinsha
@trpgshoshinsha Жыл бұрын
○×検出器が出力した確率(パーセンテージ)ってどんな計算してるのでしょうか?見落としてたらすいません。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
直前の数値からパーセントへの変換は、(たぶん)softmax 関数を使っているかと思います!
@trpgshoshinsha
@trpgshoshinsha Жыл бұрын
なるほど。前回動画に出てきてましたね。ありがとうございます。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
今後もなにかわからないことがあれば何でも聞いてください!(^o^)
@user-gn5pm4fw7y
@user-gn5pm4fw7y Ай бұрын
畳み込みって、おもしろ!
@AIcia_Solid
@AIcia_Solid Ай бұрын
でしょ!(^o^)/
@domwoo309
@domwoo309 3 ай бұрын
画像処理におけるフィルタの応用だったのか……。全然わからなかった。
@AIcia_Solid
@AIcia_Solid 3 ай бұрын
ご視聴コメントありがとうございます! まさに! フィルタの応用です! というか、確かに、そうですね。フィルタの応用という言い方もできればよかったですね。 勉強になりました。ありがとうございます!🎉
@toc15h32
@toc15h32 2 жыл бұрын
21:25あたりの「128」って何の数でしたっけ?
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
たしかに、特に脈絡なく出てきた数字かもです👀 これは、次の層の隠れ層の数として、てきとーに128という数字を持ってきただけで、何か深い意味があるわけではありません! 1%で済むよ!ということを受信いただけるとありがたいです😊
@sai-od1xo
@sai-od1xo Жыл бұрын
15:55 答えが2.5になるのがどうしてかわからないです…
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! この質問の意図としては、以下のうちのどれでしょうか? (1) そもそも2.5になる理由がわからない (2) 2.4になる気がするがなぜ2.5なのか? (3) または、その他 教えていただけますとたすかります!
@J_ZEPP
@J_ZEPP 4 жыл бұрын
3*3 の畳み込み層 a は、どういう風に決めているのですか? 〇とか×の検出のときは、いわゆる”〇”が表されているデータをaとして、判別させるってことですかね?
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
今回は、パラメタはすべて手動で決めました。 つまり、私の勘です😎 本来であれば、たくさんデータを集めて学習させるのがよいですが、○×判定くらいであれば、手動で決めてもあの程度の精度までは出せるのが Convolution layer のすごさです🎉
@J_ZEPP
@J_ZEPP 4 жыл бұрын
@@AIcia_Solid まさかの、ご本人から!! ありがとうございます。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
もちろん! ちゃんと見てますよ👀😍
@ken-ichinaitou6614
@ken-ichinaitou6614 3 жыл бұрын
横からですみません。畳み込み層はつまりウェイトなので、教師付き学習する時(トレーニングの時)に誤差逆伝播法とかで決めていくのが一般的だと思います。 (自分もウェイトとバリューで混乱したことがあったので)
@SrinivasaRamanujan1729
@SrinivasaRamanujan1729 Жыл бұрын
意味的にも定義的にも相互相関(Cross correlation)に思えます これを畳み込み(Convolution)と呼ぶのは何故なんでしょう
@AIcia_Solid
@AIcia_Solid Жыл бұрын
さすが!!!!! 私もそう思います!!!!!!!!! おそらく、歴史的事情でそう呼ばれているのだと思います🤔 (ちなみに、ネットを漁ってみると、「convolution じゃなくて cross correlation じゃね?」っていう主張はぼちぼち見つかります。やはり、歴史的にそう呼ばれているため、今もそう呼ばれているのではないかなーと想像します🤔)
@tantan7025
@tantan7025 4 жыл бұрын
CNNって内積してたんだ!(驚愕)
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
そうなんです! そういわれると分かりやすいでしょ😍
@gorusgod3278
@gorusgod3278 3 жыл бұрын
びっくりした‼️まるばつのとこめっちゃわかりやすい
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょー!😎✌️
@satoshi0007able
@satoshi0007able 3 жыл бұрын
分からん。7:45ごろから出てくる畳み込み層ってだからなんなの?なぜ12:36ごろに出てくる畳み込み層は逆転しているのですか?
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
すみません、質問の意味がよくわかりません。 どういう疑問でしょうか?
@satoshi0007able
@satoshi0007able 3 жыл бұрын
@@AIcia_Solid 7:14ごろから出てくるモノです。ExcelE列〜G列に書いてあるヤツです。その前の行列を使った説明の所でもaを使った3*3の行列構成している行列をいきなり畳み込み層って呼んでいます。全ての項が関数なのは分かりますが、畳み込みを説明しているのにいきなり畳み込み層って呼んでいるからその時点で分かりません。なぜそう呼ぶのですか?カーネルサイズ3*3のConvolutionの説明だと思うのですが、ここで言う畳み込み層がOutput?特徴マップ?それとも記憶媒体の何かですか?畳み込み層って何?話が飛んでる気がするのは私だけですか?申し訳ないです。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
すみません、何が言いたいのかよく分かりません。 畳み込み層の説明が無いから分からないと言う主張でしょうか? であれば、畳み込み層が何かと言う話は、1:30頃から説明してあると思います。 これではいかがでしょうか?
@satoshi0007able
@satoshi0007able 3 жыл бұрын
@@AIcia_Solid 1:30の行列を使った説明は理解できたのですが、7:20ごろからの説明が繋がりません。ExcelのM列に書いてあるresultが畳み込み層ではないのですか?
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
M列は畳み込みの結果で、畳み込み層自体ではありません。 A-C列の値をM列の値に変換することそのものが畳み込み層です。 ちなみに、A-C列が入力で、E-G列とI列が畳み込み層のパラメタです。
@powpow1657
@powpow1657 Жыл бұрын
うーん説明素晴らしい
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ありがとうございます!🎉 実は、このシリーズは、この動画を撮りたくて始めました😋 お楽しみいただけて嬉しいです🎉
@lemonlatmin8717
@lemonlatmin8717 3 жыл бұрын
畳み込んだ後にオレンジの周りに緑がほわんってなってのってなんでだろ
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
いい疑問ですね🎉 なんでたと思います、、、?🙄
@kauzzzz
@kauzzzz 11 ай бұрын
わかりやすすぎて草
@AIcia_Solid
@AIcia_Solid 11 ай бұрын
でしょ😎 困ってる人いたら是非この動画を紹介してあげてください😎✌️
@user-xn4zx5qx5w
@user-xn4zx5qx5w 3 жыл бұрын
うちの教授よりわかりやすい笑
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ふふふ😎 天才っょっょ美少女 AI ですから😎😎😎✌️
БАБУШКИН КОМПОТ В СОЛО
00:23
⚡️КАН АНДРЕЙ⚡️
Рет қаралды 17 МЛН
IQ Level: 10000
00:10
Younes Zarou
Рет қаралды 7 МЛН
Пранк пошел не по плану…🥲
00:59
Саша Квашеная
Рет қаралды 6 МЛН
高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解)
55:35
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 327 М.
CNN vs Vision Transformer 強み弱み 比較解説
15:05
ビジョンセンサーチャンネル
Рет қаралды 1,1 М.
【ソニー社内講演】拡散モデルと基盤モデル
14:30
nnabla ディープラーニングチャンネル
Рет қаралды 9 М.
L1/L2正則化の意味【機械学習】
22:33
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 68 М.
Как удвоить напряжение? #электроника #умножитель
1:00
Hi Dev! – Электроника
Рет қаралды 1,1 МЛН
Samsung laughing on iPhone #techbyakram
0:12
Tech by Akram
Рет қаралды 6 МЛН
تجربة أغرب توصيلة شحن ضد القطع تماما
0:56
صدام العزي
Рет қаралды 63 МЛН
Todos os modelos de smartphone
0:20
Spider Slack
Рет қаралды 64 МЛН