No video

RNN1/ Réseaux récurrents (RNN)

  Рет қаралды 22,505

CNRS - Formation FIDLE

CNRS - Formation FIDLE

Күн бұрын

Пікірлер: 34
@bouramacoulibaly1981
@bouramacoulibaly1981 Жыл бұрын
La meilleure vidéo que j'ai trouvé sur les réseaux récurrents. Merci beaucoup Professeur!
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci à vous pour votre intérêt concernant notre formation et pour votre retour :-)
@qf4364
@qf4364 2 жыл бұрын
Merci beaucoup ! Très clair meilleur que beaucoup de vidéo en anglais!
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci beaucoup !
@Lydias_1999
@Lydias_1999 2 жыл бұрын
Bonjour Vous avez compris pourquoi on utilise la transposé de W?
@ibrahimabarry8839
@ibrahimabarry8839 3 жыл бұрын
merci Mr, vous expliquez tres bien.
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@MateniaVlaxou
@MateniaVlaxou 2 жыл бұрын
Super explication, bravo !!!!
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci :-)
@thomasavron7916
@thomasavron7916 Жыл бұрын
Merci ! Super clair notamment sur les LSTM !😊
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci à toi 😊
@yveslacroix4554
@yveslacroix4554 2 жыл бұрын
Merci pour vos efforts
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci beaucoup ! Rendez-vous le 20 janvier pour le direct !
@didierleprince6106
@didierleprince6106 Жыл бұрын
Excellent pédagogue. Merci (:
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci à vous également :-)
@alexs7139
@alexs7139 7 ай бұрын
Bonne vidéo: la meilleure sur les RNN (en français en plus!). Dommage que sur la partie LSTM, votre tête cache les légendes: ça rend le schéma assez incompréhensible 😅 (si on ne connaît pas déjà l’architecture…)
@CNRS-FIDLE
@CNRS-FIDLE 6 ай бұрын
Merci beaucoup ! Notez qu'une nouvelle version de cette séquence est disponible sur notre chaine, dans laquelle nous avons été plus attentifs à cela ;-)
@naimsouni4428
@naimsouni4428 3 жыл бұрын
superbe vidéo !
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@chaymaegattoua5215
@chaymaegattoua5215 3 жыл бұрын
Merci bcp,,,,c'est très interessant
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@hamzarahmani2100
@hamzarahmani2100 Жыл бұрын
Merci pour la vidéo. Toutefois vous n'avez pas expliqué comment le modèle est entrainé? Où est ce que intervient l'erreur MSE et le nombre d'itérations?
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Vous pourrez trouver ces réponses dans la première séquence, également disponible en replay sur notre chaine :-)
@louiseti4883
@louiseti4883 2 жыл бұрын
Merci pour la qualité de la vidéo !! J'aurai une question quant à la taille des vecteurs en Output : pourquoi sont-ils de tailles égales au nombre de neurones de la hidden cell ? Ne pouvons-nous pas choisir leur taille librement comme nous pourrions le faire dans des réseaux de neurones classiques ?
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci pour votre retour ! Dans les cas des réseaux récurrents, on parle plutôt de cellules. La sortie d'un RNN sera un vecteur ayant un nombre de composantes identique au nombre de cellules constituant le réseau (voir slide 17).
@user-ei1ub4my3t
@user-ei1ub4my3t 8 ай бұрын
bonsoir prof vous êtes le meilleur merci infiniment .Svp j'ai un gros probleme pour le installation des application nécessaire pour la formation ,svp je peut avoir de aide?
@CNRS-FIDLE
@CNRS-FIDLE 6 ай бұрын
Vous trouverez sur notre site les différentes procédures actualisées de récupération et installation de l'environnement. La procédure via Docker est celle que nous conseillons, mais une installation traditionnelle, via un environnement virtuel Python est également possible.
@Lydias_1999
@Lydias_1999 2 жыл бұрын
Bonjour monsieur Merci pour votre explication Mais j'ai pas bien compris pourquoi on utilise la transposé de W au lieu de W tout court ??? Merci Pour vôtre réponse
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
On utilise la transposée de W afin de permettre la multiplication avec le vecteur X.
@hamadoumossigarba1201
@hamadoumossigarba1201 Жыл бұрын
Bonjour, Peut-on utiliser cette technique pour un registre distribué ?
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Pas sûr du tout.... Les Transformers (cf. seq. 8) sont par contre beaucoup plus performants et parallélisables :-)
@teeg-wendezougmore6663
@teeg-wendezougmore6663 2 жыл бұрын
Merci beaucoup pour ce partage. Comment peut-on citer ce cours dans un document scientifique?
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Ah, bonne question ;-) Par exemple : Jean-Luc Parouty et al., Formation Introduction au Deep Learning (FIDLE), fidle.cnrs.fr, 2022 Merci à vous de nous citer !
@teeg-wendezougmore6663
@teeg-wendezougmore6663 2 жыл бұрын
@@CNRS-FIDLE Merci
RNN2/ Prédiction simple d'une trajectoire
28:49
CNRS - Formation FIDLE
Рет қаралды 7 М.
CNN1/ Réseaux convolutifs (CNN)
27:27
CNRS - Formation FIDLE
Рет қаралды 49 М.
Parenting hacks and gadgets against mosquitoes 🦟👶
00:21
Let's GLOW!
Рет қаралды 13 МЛН
wow so cute 🥰
00:20
dednahype
Рет қаралды 30 МЛН
The Giant sleep in the town 👹🛏️🏡
00:24
Construction Site
Рет қаралды 20 МЛН
Les réseaux récurrents (RNN) | Intelligence artificielle 46
16:43
This is why Deep Learning is really weird.
2:06:38
Machine Learning Street Talk
Рет қаралды 383 М.
FIDLE / Embedding et et Réseaux de Neurones Récurrents (RNN)
2:16:13
CNRS - Formation FIDLE
Рет қаралды 7 М.
Fool-proof RNN explanation | What are RNNs, how do they work?
16:05
VAE1/ Variational Autoencoder (VAE)
21:59
CNRS - Formation FIDLE
Рет қаралды 9 М.
RNN3/ Prédiction météorologique
38:45
CNRS - Formation FIDLE
Рет қаралды 15 М.
Comprendre les réseaux de neurones récurrents (RNN)
22:42
Thibault Neveu
Рет қаралды 46 М.
AE1/ Réseaux autoencodeurs (AE)
39:45
CNRS - Formation FIDLE
Рет қаралды 10 М.
What is LSTM (Long Short Term Memory)?
8:19
IBM Technology
Рет қаралды 193 М.
FIDLE / Bases , concepts et histoire des réseaux de neurones
2:57:54
CNRS - Formation FIDLE
Рет қаралды 36 М.
Parenting hacks and gadgets against mosquitoes 🦟👶
00:21
Let's GLOW!
Рет қаралды 13 МЛН