Лекция. Контестные эмбеддинги. Word2Vec.

  Рет қаралды 13,747

Deep Learning School

Deep Learning School

Жыл бұрын

Занятие ведёт Татьяна Гайнцева.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...

Пікірлер: 21
@ilona7051
@ilona7051 7 ай бұрын
Какое мастерство!! Кристально ясная подача материала. Столько роликов просмотрела, но только после Вашего объяснения все стало на свои места. Спасибо!
@Enerdzizer
@Enerdzizer 23 күн бұрын
Отличное объяснение, структурированно и лаконично🎉 ну и естественно приятный лектор) пс в 16:01 все таки не вектор столбец умножается а вектор строка..
@user-yv5st3jp7u
@user-yv5st3jp7u Жыл бұрын
Прекрасный лектор, прекрасное объяснение и прекрасная презентация. Спасибо!
@AskoLd1ee
@AskoLd1ee Жыл бұрын
Татьяна - вы прекрасны! Спасибо!
@user-kw1ye8so9n
@user-kw1ye8so9n 5 ай бұрын
лекция огонь! на одном дыхании!😃
@user-jd2if9mg8m
@user-jd2if9mg8m 5 ай бұрын
Очень хороший материал, но лектор слишком красивый.
@EsinaViwn9
@EsinaViwn9 4 ай бұрын
Очень хорошо объяснили
@jewgenijmoldawski3306
@jewgenijmoldawski3306 6 ай бұрын
Почему-то в playlist "Deep Learning: часть 2. Обработка естественного языка. 2023 год" этот ролик на 4-й позиции, хотя должен быть на второй.
@DeepLearningSchool
@DeepLearningSchool 5 ай бұрын
поправим, спасибо
@sergeysosnovski162
@sergeysosnovski162 21 күн бұрын
@@DeepLearningSchool Когда ?
@Arseny150
@Arseny150 Жыл бұрын
У машины бывает рама, только она мало кому видна и уж тем более мало кто красит ее в красивый белый цвет :)
@artem5753
@artem5753 4 ай бұрын
Было сказано, что i-тая строка матрицы А является эмбеддингом входного слова, а j-тый столбец матрицы B эмбеддингом контекстоного слова, но как получаются то сами эти эмбеддинги? Как они расчитывается?
@user-danche
@user-danche 10 ай бұрын
А что из себя представляют матрицы A и B, как определяются значения в строках, столбцах?
@user-fe5lg3dw3q
@user-fe5lg3dw3q 9 ай бұрын
они выучиваются с помощью градиентного спуска
@user-bj2yn8mp4r
@user-bj2yn8mp4r 25 күн бұрын
Поясните, пожалуйста, почему на эмбеддингах работает векторная арифметика (например, королева = король - мужчина + женщина)? Из того, как мы их получили, следует, что в них закодирован их контекст, поэтому эмбединги похожих слов будут похожи, т.е. их косинусное расстояние будет большим. А вот то что на данных эмбеддингах будет работать векторная арифметика, мне не совсем понятно.
@user-bj2yn8mp4r
@user-bj2yn8mp4r 24 күн бұрын
Нашел объяснение: Alex Gittens, Dimitris Achlioptas, and Michael W. Mahoney. 2017. Skip-Gram − Zipf + Uniform = Vector Additivity. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 69-76, Vancouver, Canada. Association for Computational Linguistics.
@Enerdzizer
@Enerdzizer 21 күн бұрын
А кто может пояснить почему работает арифметика сложения и вычитания с эмбедингами и при этом смысл слов соответствует ? Король женщина королева
@damirtenishev6874
@damirtenishev6874 Жыл бұрын
Не совсем верно (21:50), что чем больше embedding, тем больше смысла он может содержать. До какой-то степени - да, потом - скорее всего, полезность будет расти медленно с ростом k. Интуиция подсказывает, что - логарифмически ассимптотически приближаясь к какому-то пределу. Либо при k равном размеру словаря, либо, при более сложной обработке при исчерпании информации в тексте. Интересно, есть ли исследования, показывающие на реальных текстах зависимость результативности и правильности обучения от величины k? Было бы интересно изучить. Всё-таки k сильно влияет на ресурсы на больших текстах.
@damirtenishev6874
@damirtenishev6874 Жыл бұрын
Спасибо. Толковое и последовательное изложение. Хорошо бы добавить к этой лекции объяснение, какую именно практическую задачу мы решаем в данном случае, как это сделано у Вас в целом в kzfaq.info/get/bejne/idqKlKtzs73Nf6c.html. Там - перечислено множество задач, но в этом уроке хотелось бы знать, какую задачу мы решаем в данном случае. Инструмент описан очень хорошо, но без описания цели сложно понять, зачем выбирать именно его при наличии более простых, хорошо отлаживаемых и пресказуемых механизмов. Вопрос не праздный. К примеру, если речь идёт о предсказании текста, то возникает вопрос, чем метод цепей Маркова хуже или чем не подходит та же таблица с 3:13 ? Вы показываете сложные алгоритмы, подключаете использование нейронных сетей, которые достаточно сложно отлаживать - это должно оправдываться задачей. Если они работают лучше, чем цепи Маркова - было бы здорово показать задачу, на которой это так. Я не спорю, что Вы правы - у этого подхода много преимуществ, в том числе - в возможности расширения и гибкости, но это - абстрактные слова. Сильно поможет, если будет показана задача и объяснено, чем такой подход лучше детерминированного подхода цепей Маркова и таблицы, которую Вы предложили.
@user-rs7iv9te2y
@user-rs7iv9te2y 6 ай бұрын
привет красивая женщина
@Perfffffffect
@Perfffffffect 2 ай бұрын
Обыскал весь интернет в поисках нормального объяснения word2vec. Ничего не нашел кроме статьей шарлатанов, которые сами не понимают, как оно работает (аля «ну я кнопку нажал и получил эмбединг»). А здесь ультрасуперское объяснение с понятной логикой и смыслом того, как это устроено!!!
Лекция. Рекуррентная нейронная сеть
16:54
Deep Learning School
Рет қаралды 16 М.
DAD LEFT HIS OLD SOCKS ON THE COUCH…😱😂
00:24
JULI_PROETO
Рет қаралды 13 МЛН
Scary Teacher 3D Nick Troll Squid Game in Brush Teeth White or Black Challenge #shorts
00:47
39kgのガリガリが踊る絵文字ダンス/39kg boney emoji dance#dance #ダンス #にんげんっていいな
00:16
💀Skeleton Ninja🥷【にんげんっていいなチャンネル】
Рет қаралды 7 МЛН
Обзор архитектуры Detection Transformer (DETR)
22:02
Прикладное машинное обучение 1. Intro to NLP. Word embeddings
1:00:52
Word Embedding and Word2Vec, Clearly Explained!!!
16:12
StatQuest with Josh Starmer
Рет қаралды 280 М.
Лекция. Внимание (Attention)
38:51
Deep Learning School
Рет қаралды 14 М.
Understanding Word2Vec
17:52
Jordan Boyd-Graber
Рет қаралды 76 М.