No video

Comprendre les Transformers et les mécanismes d'attention

  Рет қаралды 34,648

Thibault Neveu

Thibault Neveu

Күн бұрын

Пікірлер: 54
@MachineLearnia
@MachineLearnia 3 жыл бұрын
Quel plaisir de revoir une vidéo de ta part sur KZfaq !
@FloNocode
@FloNocode 3 жыл бұрын
En espérant que ce soit le début d'une longue série de vidéo :D.
@elouatimohamed3792
@elouatimohamed3792 3 жыл бұрын
En manque bq tes vedio machine learnia
@lucienkahozi3314
@lucienkahozi3314 Жыл бұрын
nous aimerions aussi que tu fasses une video sur le sujet, ta pedagogie et tes animations sont vraiment utile Machine Learnia. Merci
@renemiche735
@renemiche735 3 жыл бұрын
merci. J'attendais une vidéo sur le sujet en français depuis longtemps et je suis d'autant plus heureux que ce soit toi qui la traite, car tu es un excellent pédagogue.
@MsBowner
@MsBowner Жыл бұрын
Excellent Thibault !
@joslinmartinez9218
@joslinmartinez9218 2 жыл бұрын
Cette vidéo et le live coding que tu as fais sont de grande qualité et m'ont permis de comprendre cette architecture et la façon dont on peut coder ce genre de choses ! Merci beaucoup :)
@arishali9248
@arishali9248 3 жыл бұрын
You deserve more views and more subscribers, I am in love with your channel !!
@boukaryouedraogo9554
@boukaryouedraogo9554 3 жыл бұрын
Bon retour Thibault.
@sargan7851
@sargan7851 3 жыл бұрын
Content de revoir des vidéos ... et le son est super bon.
@MachineLinguist
@MachineLinguist 3 жыл бұрын
Merci pour cette vidéo 🙏. C’est super bien expliqué.
@alh7839
@alh7839 2 жыл бұрын
c'est si clair, bien dans les détails en expliquant bien des notions complexes, gg
@alainrieger6905
@alainrieger6905 3 жыл бұрын
Merci Monsieur pour tout ce que vous rendez accessible
@Leo-hi3to
@Leo-hi3to 3 жыл бұрын
Content de te revoir !!
@arminsmajlagic2907
@arminsmajlagic2907 Жыл бұрын
I'm learning french and deep learning at the same time with you :D Thank you very much, well explained.
@moussabamba6216
@moussabamba6216 3 жыл бұрын
Super vidéo et bien expliquée , merci pour ce tuto , on attend le TP
@jeanpeuplu3862
@jeanpeuplu3862 2 жыл бұрын
13:17 : ASMR pour penser à nous hydrater ; merci 🥰
@bradleyadjileye1202
@bradleyadjileye1202 Жыл бұрын
Merci pour cette vidéo
@abderrahmanemabroukmerabet9274
@abderrahmanemabroukmerabet9274 3 жыл бұрын
Ce que tu fais est supe, continue c'est tres bien detaillé
@ahmedel-azharjebbari8806
@ahmedel-azharjebbari8806 3 жыл бұрын
Très bien expliqué !
@arishali9248
@arishali9248 3 жыл бұрын
Amazing video, thanks for the explanation
@hassanaghdaoui5138
@hassanaghdaoui5138 3 жыл бұрын
Sujet très intéressant , super vidéo
@hadjerhamidou1586
@hadjerhamidou1586 Жыл бұрын
Merci pour ces explications
@denisbories
@denisbories 3 жыл бұрын
Merci beaucoup pour ces explications claires 👏 Les propositions d’une séance de live coding ou une autre vidéo qui rentrerait dans les détails d’autres applications sont aussi intéressantes l’une que l’autre donc l’idéal serait de faire les 2 😬😇😷
@walidayadi5752
@walidayadi5752 3 жыл бұрын
BRAVO ! Vidéo TOP !
@cedricmanouan2333
@cedricmanouan2333 3 жыл бұрын
Heureux de te revoir TN 😏
@14Tyrion
@14Tyrion 3 жыл бұрын
Très bon travail !! Effectivement un TP pratique serait le bienvenu =)
@adrien123_
@adrien123_ 3 жыл бұрын
Super vidéo, sujet très intéressant !
@laurentpourchot4649
@laurentpourchot4649 3 жыл бұрын
Hello, merci pour cette video. Un exemple avec keras (ou Pytorch) serait top :-)
@khaberislam8957
@khaberislam8957 3 жыл бұрын
Merci ..
@vincentb.8743
@vincentb.8743 3 жыл бұрын
Oui l'application des transformers serait très intéressant
@user-xj1pw4on2n
@user-xj1pw4on2n 11 ай бұрын
merci beaucoup vraiment 🤍🤍🤍
@damienbouchabou1311
@damienbouchabou1311 3 жыл бұрын
Superbe vidéo d'introduction aux transfomers. Je suis très intéressé pas le live coding d'un transfomers en keras. Et aussi très intéressé par l'explication d'application de transformer a d'autres domaines
@lucienkahozi3314
@lucienkahozi3314 Жыл бұрын
merci pour cette videos tres instructive bro !
@elouatimohamed3792
@elouatimohamed3792 3 жыл бұрын
Parfait 😍😍 merci bq
@bekabd
@bekabd 3 жыл бұрын
Merci
@hamadoumossigarba1201
@hamadoumossigarba1201 4 ай бұрын
Bonjour, Merci pour la qualité de la présentation et de clarté dans vos explications. Est -ce que le transformer peut être utilisé pour enregistrer et distribuer des données (codes imei et imsi)? Pourrai-je si possible avoir ce papier?
@franklouenkam8820
@franklouenkam8820 2 жыл бұрын
Merci infiniment😍😍😍
@lz8oo8zl
@lz8oo8zl 3 жыл бұрын
Je ne comprends pas un truc. A quoi sert réellement le FFN dans l'encoder et le decoder ? Chaque token va passer dans un réseau de neurones mais je ne vois pas ce que ça apporte au modèle. Quel impact ces réseaux ont sur l'information?
@liapourlesentreprises
@liapourlesentreprises 6 ай бұрын
salut Thibault , est-ce que tu aurais un schéma où on retrouve en terme simplifié cette suite d'opérations : prompt - token - vecteur - tête d'attention - décodeur ?
@automatescellulaires8543
@automatescellulaires8543 2 жыл бұрын
J'adore le premier Transformers. Michael Bay is all you need.
@jean-marcbereder4231
@jean-marcbereder4231 3 жыл бұрын
excellent
@soelreza1430
@soelreza1430 2 жыл бұрын
Salut ! Tes vidéos sont super ! Merci beaucoup Dis moi est ce que le mécanisme d’attention peut être utilisé non pas pour le traitement de language mais pour prédire des variables numériques continue comme par exemple pour prédire le kwh d’un compteur électrique qui change toutes les 10s
@benoitmialet9842
@benoitmialet9842 3 ай бұрын
une question qui me hante : la masked self attention ne devrait intervenir UNIQUEMENT que lors de l'entrainement, car on place en input de decoder une séquence contenant la réponse (les tokens futurs). donc, en quoi la masked self attention intervient durant un processus de génération (une fois le modèle entrainé), puisque les tokens encore non générés n'existent tout simplement pas ? Merci de tout éclairage !
@ThibaultNeveu
@ThibaultNeveu 3 ай бұрын
En effet, seulement utile a l'entrainement
@benoitmialet9842
@benoitmialet9842 3 ай бұрын
@@ThibaultNeveu merci je me sens moins seul maintenant 🤣
@yacinemamdouh1271
@yacinemamdouh1271 2 жыл бұрын
Je comprends pas pourquoi on a 8 têtes d'attention à 32:35 ? Merci pour la vidéo
@simonarduin8600
@simonarduin8600 3 жыл бұрын
nice
@elouatimohamed3792
@elouatimohamed3792 3 жыл бұрын
Et aussi il faut L'implémentation svp
@samuelhamache103
@samuelhamache103 3 жыл бұрын
il a donné toutes les informations pour coder. Pas besoin de plus.
@Saens406
@Saens406 2 жыл бұрын
rien compris
@WahranRai
@WahranRai 2 жыл бұрын
Affreux melange du français et de l'anglais !
@lbognini
@lbognini 2 жыл бұрын
Les documents d'origine sont en anglais et ce sont des concepts relativement nouveaux. Que voulez-vous qu'il fasse? Commencer par faire du boulot de traduction avant celui d'explication? On aurait bien aimé que les papers d'origine soit en français. Pour l'heure, souffrons de ce mélange.
@blancanthony9992
@blancanthony9992 2 жыл бұрын
Merci
Coder un Transformer avec Tensorflow et Keras (LIVE)
2:30:46
Thibault Neveu
Рет қаралды 11 М.
Comprendre les réseaux de neurones récurrents (RNN)
22:42
Thibault Neveu
Рет қаралды 46 М.
女孩妒忌小丑女? #小丑#shorts
00:34
好人小丑
Рет қаралды 83 МЛН
Nurse's Mission: Bringing Joy to Young Lives #shorts
00:17
Fabiosa Stories
Рет қаралды 3,1 МЛН
Oh No! My Doll Fell In The Dirt🤧💩
00:17
ToolTastic
Рет қаралды 6 МЛН
When you discover a family secret
00:59
im_siowei
Рет қаралды 15 МЛН
Vision Transformers : Les transformers pour l'analyse d'image
34:19
Thibault Neveu
Рет қаралды 10 М.
FIDLE / "Attention Is All You Need", quand les Transformers changent la donne !
2:10:14
The math behind Attention: Keys, Queries, and Values matrices
36:16
Serrano.Academy
Рет қаралды 235 М.
Ce qui se cache derrière le fonctionnement de ChatGPT
27:23
ScienceEtonnante
Рет қаралды 1,2 МЛН
Le père fondateur du Deep Learning - Yann Le Cun
1:51:33
Matthieu Stefani
Рет қаралды 154 М.
女孩妒忌小丑女? #小丑#shorts
00:34
好人小丑
Рет қаралды 83 МЛН