Comprendre les LSTM - Réseaux de neurones récurrents

  Рет қаралды 48,638

Thibault Neveu

Thibault Neveu

5 жыл бұрын

Patreon : / membership
Dans cette vidéo, nous regardons comment fonctionnent les cellules LSTM (Long short time memory) et leur mémoire qui leur permettent de stocker uniquement l'information nécessaire utile à une prédiction.
#RNN #LSTM #DeepLearning
La vidéo sur les réseaux de neurones récurrents (RNN) :
• Comprendre les réseaux...
Discord de la communauté :
/ discord
[Chronique d'une IA]
Spotify : open.spotify.com/show/5yTTTKf...
Amazon music : music.amazon.fr/podcasts/5097...
Apple Podcasts: podcasts.apple.com/us/podcast...
[About me]
Visual Behavior : visualbehavior.ai
Perso : www.thibaultneveu.ai/
Github : github.com/thibo73800
Linkedin : / thibaultneveu
Twitter : / thiboneveu

Пікірлер: 81
@raphaelt1000
@raphaelt1000 3 жыл бұрын
Très clair merci, référencement en tête des vidéos LSTM mérité. Un petit complément sur la backpropagation dans les cellules LSTM aurait peut-être pu compléter le tout
@yacinebenaffane6535
@yacinebenaffane6535 5 жыл бұрын
Enfiiin je comprend les LSTM. Merci ! Une video sur les transformers serait aussi intéressante ^^
@user-et8es9vg5z
@user-et8es9vg5z Жыл бұрын
Merci beaucoup. Cette notion est clairement plus difficile à saisir que les RNN mais grâce à tes explications très claires je pense avoir compris.
@bennacer13
@bennacer13 2 жыл бұрын
Slt , Merci Beaucoup pour cette très claire vulgarisation des LSTM, c'est vraiment très bien expliquer ! Merci encore pour tout ton travail, et la qualité d'information partagée.
@bersalimahmoud6732
@bersalimahmoud6732 5 жыл бұрын
Trés bonne explication, Merci beaucoup pour vos efforts et Bonne continuation.
@guygirineza4001
@guygirineza4001 4 жыл бұрын
J'ai pas fini ta vidéo mais je tiens déjà à te remercier de ce que tu fais !! Tes explications sont simples et concises ! J'adore ca, merci bcp !
@thibautsaah3379
@thibautsaah3379 5 жыл бұрын
Merci vous m'avez vraiment aidé à comprendre les bases du LSTM!
@Spartan34Crafticraf
@Spartan34Crafticraf 9 ай бұрын
très bonne vidéo pédagogique ! un commentaire pour la mettre en lumière pour d'autres personnes en recherche de vidéos pédagogiques de qualité sur le sujet
@stedlg
@stedlg 5 жыл бұрын
Vraiment excellent ce cours, merci beaucoup !
@romainl3591
@romainl3591 3 жыл бұрын
Quelle pédagogie ! C'est vraiment très bien expliqué. Bravo pour ce travail de qualité !
@benaissaahmed4692
@benaissaahmed4692 5 жыл бұрын
Bravo et mille merci, tres clair et tres bien explique.
@profeskills768
@profeskills768 3 жыл бұрын
Bravo ! C est trop bien expliqué :)
@zinebgarroussi5059
@zinebgarroussi5059 3 жыл бұрын
Excellente video sur les LSTM.
@sachadu779
@sachadu779 3 жыл бұрын
Franchement tu gères à fond merci beaucoup
@franckmennereuil3028
@franckmennereuil3028 4 жыл бұрын
Très bien expliqué ! Merci
@mountassirkh2759
@mountassirkh2759 3 жыл бұрын
C'est grandement instructif. Merci !
@mehdi5753
@mehdi5753 4 жыл бұрын
Je viens de terminer la formation de andrew NG sur les LSTM j'avais quelque flou a propos de ça, en regardant ta vidéo j'ai pu combler mes lacunes a ce sujet. Bien joué.
@nathanaelbenichou2276
@nathanaelbenichou2276 2 жыл бұрын
incroyable tes vidéos !
@searchof2887
@searchof2887 6 ай бұрын
superbement explique
@rodklv8564
@rodklv8564 3 жыл бұрын
Bravo et félicitations Thibault, ne change rien ! En retour ce fan te conseille burning man ;)
@ilyeszemalache2348
@ilyeszemalache2348 4 жыл бұрын
Lerci beaucoup beaucoup mon frère tu expliques très bien
@fadiaferarha4932
@fadiaferarha4932 Жыл бұрын
Merci pr la vidéo !
@botanahmad9016
@botanahmad9016 3 жыл бұрын
Un mot a dire: excellent.
@naimsouni4428
@naimsouni4428 3 жыл бұрын
vraiment top comme video ! thanks :)
@alainrieger6905
@alainrieger6905 4 жыл бұрын
T'as mieux expliqué les LSTMs que Andrew Ng. Merci pour ton partage!
@sarahyounes2624
@sarahyounes2624 3 жыл бұрын
Merci, une vidéo tres claire.
@chadhamhalla7310
@chadhamhalla7310 3 жыл бұрын
C'est excellent! Merci :D
@djamilatoudiallo3583
@djamilatoudiallo3583 Жыл бұрын
meilleur cours sur les LSTM Merci beaucoup
@crabulin
@crabulin 4 ай бұрын
C'est très clair, merci :)
@youssefelajraoui2576
@youssefelajraoui2576 Жыл бұрын
très bien expliqué. Merci
@dzlcrd9519
@dzlcrd9519 4 жыл бұрын
Super bien expliqué
@mustaphag.b.d7758
@mustaphag.b.d7758 4 жыл бұрын
Merci, bien explique
@moussabamba6216
@moussabamba6216 4 жыл бұрын
tu es génie, merci encore
@yaminadjoudi4357
@yaminadjoudi4357 3 жыл бұрын
merci bcp, j'espère voir une vidéo sur les MNNs (Modular neural networks)
@sahibkhouloud8670
@sahibkhouloud8670 4 жыл бұрын
Merci bcp ❤
@davidniddam9869
@davidniddam9869 Жыл бұрын
Tres Clair , merci
@brahimdarham8001
@brahimdarham8001 2 жыл бұрын
GéNIAL !!
@user-dl5un7tq4t
@user-dl5un7tq4t 8 ай бұрын
merci!!
@science.20246
@science.20246 3 жыл бұрын
tres simple explicaion
@LUCAMARRADI-ii6gp
@LUCAMARRADI-ii6gp Жыл бұрын
Top :)
@louis-philippedugas8118
@louis-philippedugas8118 5 жыл бұрын
Excellent vidéo. Cependant j'ai du mal à voir comment les gains de toutes ces matrices sont entrainés comparés à un réseau feedforward. Un prochain vidéo :) ?
@emoloic8481
@emoloic8481 4 жыл бұрын
Merci
@mehdihellou4173
@mehdihellou4173 5 жыл бұрын
Un grand bravo pour ta vidéo, avec des explications très claire. Penses-tu que dans un avenir proche il serait possible de faire une vidéo sur les Memory Network, qui est une version amélioré des LSTM ? Encore un grand bravo pour ta vidéo et continue comme ça !
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
Je prend note, c'est vrai que les memory network sont super intéressant!
@alvineteubo-ld9re
@alvineteubo-ld9re Ай бұрын
Bravo merci beaucoup je comprends vraiment 🙏 stp as-tu fais une vidéo sur le backpropagation?
@jonathanndamba3661
@jonathanndamba3661 4 жыл бұрын
Top
@ghizlanechtouki
@ghizlanechtouki 5 ай бұрын
merci
@Lumi265
@Lumi265 2 жыл бұрын
1) Les matrices pour l'étape d'oublie, d'ajout et de sortie sont donc toutes des matrices (9,5) mais pour chacune on attribue des valeurs aléatoires différentes ? 2) quant à C lors de la partie sortie il s'agit de l'addition de la mémoire obtenue dans l'étape oublie + celle dans l'étape ajout ? 3) dernière question comment fonctionne le t0 ? avec C-1 = vecteur nulle ? En tous cas merci d'expliquer avec tant d'explication ça rend le sujet vraiment abordable
@keichan0505
@keichan0505 5 жыл бұрын
Excellent travail, comme toujours :). Est-ce la prochaine video traitera de l'apprentissage de telles cellules ?
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
Ça va venir oui, il y a un gros programme que je prépare pour le mois prochain :)
@keichan0505
@keichan0505 5 жыл бұрын
@@ThibaultNeveu un gros programme? J'ai hate :)
@jackympoy7
@jackympoy7 4 жыл бұрын
Merci pour ta vidéo, qu'est ce que représentent les 5 valeurs du vecteur Ct ?
@pedrocolombino3266
@pedrocolombino3266 5 жыл бұрын
Merci bcq pour la vidéo, c‘est très utile. A 4min22, est ce que la matrice de poids W pourrait avoir une taille 4X3 ou obligatoirement 3X4.
@LaZaR92250
@LaZaR92250 5 жыл бұрын
Très instructif et très pédagogique (la qualité des slides aide énormément ^^) Par contre, j'anticipe peut-être le sujet d'une prochaine vidéo, mais comment fait-on pour paramètrer ce genre de cellules ? Merci encore pour ce travail pédagogique qui arrive à enlever la "magie" derrière les technologies à la base de l'intelligence artificielle.
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
En utilisant de la backpropagation, chaque matrice W et les bias b montré vont être modifié pour converger vers une solution. J'en parle dans ma série sur le deep learning.
@LaZaR92250
@LaZaR92250 5 жыл бұрын
@@ThibaultNeveu Une retro-propagation classique fonctionne donc ... ça doit pas être simple à mettre en œuvre à la main mais certain framework doivent faire ça je suppose ? Il faut donc avoir plusieurs, un pour chaque pas de temps ?
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
Non, un seul en réalité, car le calcul réalisé à t+10 par exemple dépend de t+9 qui dépend de t+8 qui dépend de ..... t. Donc par la rétropopagation un seul optimizer suffit pour optimiser la même céllule qui est utilisé sur toute les steps, et ainsi faire en sorte que à chaque step la céllule est bien une représentation et une série d'opération (foget gate, input gate, output gate) qui lui permette de faire la bonne prédiction.
@aminearbouch4764
@aminearbouch4764 4 жыл бұрын
Salut thibaut, merci pour la video. STP comment je peux utiliser un graphe qui figure sur la video, biensur que en te citant dans mon etude
@alainrieger6905
@alainrieger6905 4 жыл бұрын
est ce possible davoir une video sur le modèle transformer du papier "attention is all you need". Merci a toi bon courage!
@hamadoumossigarba1201
@hamadoumossigarba1201 Жыл бұрын
Bonjour et merci pour la clarté de ce cours. Je voudrai si possible savoir si on peut avec cette technique LSTM créer un système d'enregistrement, d'identification et de gestion de terminaux mobiles à l'aide de deux catégories de codes et d'une valeur fixe? Si oui, existe-t-il un survey sur cette préoccupation?
@ismailelabbassi7150
@ismailelabbassi7150 7 ай бұрын
Merci c'est bien expliqué. mais j'arrive pas saisir la relation entre la mémoire et le vanashing/exploding gradient.
@bernardotod9962
@bernardotod9962 3 жыл бұрын
Pourriez-vous me dire svp quel logiciel utilisez vous pour la représentation graphique/schéma des réseaux ?
@jean-marclaferte443
@jean-marclaferte443 Жыл бұрын
Thibault, si tu lis encore les commentaires : merci pour cette vidéo qui m'a aidé à comprendre les LSTM. Deux remarques bienveillantes et constructives toutefois : pense à rappeler que tu parles de la multiplication numpy de vecteurs (ie membre à membre) et non d'une multiplication mathématique de vecteurs qui n'existe pas ! Par ailleurs mais c'est plus anecdotique j'en conviens, je pense que ce serait plus clair si tu évitais oralement certains termes anglais ou abréviations (exemple : biais et non "bias" avec une prononciation pas intuitive, tangente hyperbolique et non "tanh"). Bravo pour le reste 🙂
@Maarx
@Maarx 4 жыл бұрын
Super vidéo on comprend facilement grâce aux illustrations ! Je me demandais seulement : est-ce que la taille du vecteur de mémoire de la cellule doit être égale à la taille du vecteur de sortie ?
@mmdrlolfr2612
@mmdrlolfr2612 Жыл бұрын
Je réponds à cette question pour les prochains lecteurs mais je ne pense pas que la mémoire soit de même taille que l’output. Pour n’avoir par exemple qu’un output avec une matrice de 5 valeurs, on pourrait implémenter à la fin une couche pour relier chaque valeur de la mémoire à la sortie. Reprenez moi si j’ai faux. ;)
@Maarx
@Maarx Жыл бұрын
@@mmdrlolfr2612 Alors, 3 ans de PyTorch plus tard je peux répondre à moi-même du passé : ce qu'on fait en pratique c'est qu'on ramène le hidden_state de la dernière couche LSTM à la dimension souhaitée grâce à une projection linéaire.
@kouagnybeliessouclementgue8
@kouagnybeliessouclementgue8 5 жыл бұрын
Merci beaucoup pour vos explications. Mais est-ce possible d'avoir une ou des vidéos sur les GAN ?
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
C'est dans la roadmap!
@kouagnybeliessouclementgue8
@kouagnybeliessouclementgue8 5 жыл бұрын
OK
@kamalagourram3709
@kamalagourram3709 4 жыл бұрын
MERCI DE M'ENVOYEZ VOTRE E-MAIL
@loubnafares929
@loubnafares929 2 жыл бұрын
merci beaucoup pour cette explication , une petite erreur (min 13:26)la matrice Wf doit être de taille (5,9) et non pas de (9,5)
@cesarus2780
@cesarus2780 4 жыл бұрын
Bonjour, Quelqu'un peut me dire comment on set le nombres de cells d'un LSTM? Merci
@ahlembougattaya5467
@ahlembougattaya5467 5 жыл бұрын
merci beaucoup pour cette explication est ce que tu peut me donne le diapo de présentation s'il possible et mrc
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
docs.google.com/presentation/d/126o9uafLcWUP6UHvffmrUxgmbIdoWXcj31ALDHK8baQ/edit?usp=sharing
@ahlembougattaya5467
@ahlembougattaya5467 5 жыл бұрын
@@ThibaultNeveu merci beaucoup
@hamadoumossigarba1201
@hamadoumossigarba1201 Жыл бұрын
J'allais écrire, .... un système centralisé, ...
@imenekhalifa9344
@imenekhalifa9344 5 жыл бұрын
merciii beaucoup pour cette vidéo vous explique bien ! avez vous un email . je suis en train de faire ma mémoire de recherche qui s' intérésse sur le deep learnig pour prédir la tendance du prix d'un indice bourcier avec analyse numérique(prix de l'action ) et une analyse textuelle (analyse de sentiment) . je suis dans la phase de modéliser le modele avec le logiciel Matlab .Si je trouve un probléme ou une tache pas claire je peut vous contacter par email ?
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
Salut, as-tu rejoins le discord pour parler de ton projet ?
@nizarelhilali903
@nizarelhilali903 Жыл бұрын
L3zzzz Biiik Awld Mimty 3ajbny Lah Yj3l Rby y7n 3lk alfrda
@WahranRai
@WahranRai 3 жыл бұрын
Il oublie peu à peu son français : un biais, une couche, un produit scalaire, tangente hyperbolique, une sortie etc...
Comprendre les Transformers et les mécanismes d'attention
44:21
Thibault Neveu
Рет қаралды 33 М.
Comprendre les réseaux de neurones récurrents (RNN)
22:42
Thibault Neveu
Рет қаралды 46 М.
아이스크림으로 체감되는 요즘 물가
00:16
진영민yeongmin
Рет қаралды 56 МЛН
DEFINITELY NOT HAPPENING ON MY WATCH! 😒
00:12
Laro Benz
Рет қаралды 50 МЛН
ОСКАР vs БАДАБУМЧИК БОЙ!  УВЕЗЛИ на СКОРОЙ!
13:45
Бадабумчик
Рет қаралды 5 МЛН
When You Get Ran Over By A Car...
00:15
Jojo Sim
Рет қаралды 29 МЛН
What is LSTM (Long Short Term Memory)?
8:19
IBM Technology
Рет қаралды 183 М.
RNN1/ Réseaux récurrents (RNN)
31:09
CNRS - Formation FIDLE
Рет қаралды 22 М.
Long Short-Term Memory (LSTM), Clearly Explained
20:45
StatQuest with Josh Starmer
Рет қаралды 511 М.
CNN1/ Réseaux convolutifs (CNN)
27:27
CNRS - Formation FIDLE
Рет қаралды 48 М.
But what is a neural network? | Chapter 1, Deep learning
18:40
3Blue1Brown
Рет қаралды 16 МЛН
Recurrent Neural Networks (RNNs), Clearly Explained!!!
16:37
StatQuest with Josh Starmer
Рет қаралды 508 М.
Genetic Algorithms Explained By Example
11:52
Kie Codes
Рет қаралды 316 М.
Samsung Galaxy Unpacked July 2024: Official Replay
1:8:53
Samsung
Рет қаралды 23 МЛН
Красиво, но телефон жаль
0:32
Бесполезные Новости
Рет қаралды 940 М.
Собери ПК и Получи 10,000₽
1:00
build monsters
Рет қаралды 2,7 МЛН