Github курса с описанием и полезными ссылками: github.com/averkij/mstu-nlp-c... В чем состоит механизм внимания. Как устроена архитектура трансформеров, как работает слой Self-Attention в декодере и энкодере.
Пікірлер: 4
@kodiSong25 күн бұрын
10:56-12:40 "и обучаться она будет следующим образом". Приготовился, направил весь свой attention на слушание, руки потёр, вот сейчас пойму... ага. Вы поняли что он сказал?
@user-kx1xg1ox3r2 ай бұрын
Вот бы эта лекция лет так на 5 раньше вышла) (как я понимаю сама архитектура была опубликована в 2017) Я когда диплом писал, вообще ничего подобного не слышал, хотя скорее всего из-за того что я не изучал языковые модели, а только семантическую сегментацию изображений. Эх, грустно. Лекция топ!
@user-mw8un4ym1hАй бұрын
Да
@Ermac86Ай бұрын
Очень плохо объясняете, не понятно не доступно. дизлайк!