Свёрточные нейронные сети: валидационный набор данных, image augmentation, dropout.

  Рет қаралды 1,948

Андрей Шмиг

Андрей Шмиг

5 жыл бұрын

⚡⚡⚡ На прошлых занятиях мы изучали точность работы наших свёрточных нейронных сетей используя метрику accuracy на тестовом наборе данных. Когда мы разрабатывали свёрточную нейронную сеть для классификации изображений из набора данных FASHION MNIST, то получили 97% точность на тренировочном наборе данных и всего лишь 92% точность на тестовом наборе данных. Всё это происходило потому, что наша модель переобучалась. Другими словами, наша свёрточная нейронная сеть начинала запоминать тренировочный набор данных. Однако о переобучении мы смогли узнать только после того, как провели обучение и тестирование модели на имеющихся данных сравнив точности работы на обучающем наборе данных и тестовом наборе данных.
Для избежания подобной проблемы мы, достаточно часто, используем набор данных для валидации - валидационный набор данных.
...
Если вам достаточно сильно повезло и у вас имеется большой набор обучающих данных, то можно с уверенностью сказать, что вам повезло и ваша нейронная сеть с малой вероятностью переобучится. Однако, что достаточно часто бывает, нам предстоит работать с ограниченным набором изображений (тренировочных данных), что, в свою очередь, приведёт нашу свёрточную нейронную сеть с большой вероятностью к переобучению и снизит её способность обобщать и выдавать нужный результат на данных, которая она не "видела" ранее.
Эту проблему можно решить воспользовавшись техникой называемой "расширением" (image augmentation). Расширение изображений (данных) работает путём создания (генерации) новых изображений для обучения посредством применения произвольных преобразований исходного набора изображений из обучающей выборки.
Например, мы можем взять одно из исходных изображений из нашего обучающего набора данных и применить к нему несколько произвольных преобразований - перевернуть на Х градусов, отзеркалить по горизонтали и произвести произвольное увеличение.
...
В этой части мы изучим новую технику - отключение (dropout), которая так же поможет нам избежать переобучения модели. Как мы уже знаем из ранних частей нейронная сеть оптимизирует внутренние параметры (веса и смещения) для минимизации функции потерь.
Одна из проблем с которой можно столкнуться во время обучения нейронной сети - огромные значения в одной части нейронной сети и маленькие значение в другой части нейронной сети.
...
Хабр: habr.com/ru/post/458170/
Полный курс доступен тут: • Tensorflow обучение: в...
💡 Меня интересуют следующие темы, а значит про них ты здесь и найдёшь больше всего информации:
- Технологии (разработка, программное обеспечение, МЛ, ИИ)
- Дизайн (железный, мобайл)
- Обучение (структура обучения, формат подачи информации, значимое и не значимое в обучении)
- Спорт (мото, ролики, бег, плавание)
- Финансы / экономика
- Переговоры (продажи, холодные звонки)
- Рекрутинг (тесты, прогнозирование, срезы, поиск)
Подписывайся 🎯, смотри еженедельно видео и включайся в обсуждения!
💥Вконтакте: ashmig
💥Facebook: / yatsukoyin
💥 Telegram: t.me/ashmig
💥Email: shmig@ojok.ru
#tensorflow #python #js #javascript #intro #machine #learning #ai #ии #машинное #обучение #глубокое #обучение #andrew #shmig

Пікірлер: 6
@user-tl1rj2qz1j
@user-tl1rj2qz1j 5 жыл бұрын
Отличная подача!!!Спасибо за труд и успехов☺
@jkedesign77
@jkedesign77 3 жыл бұрын
Вот эта часть хороша
@YY-zw2ec
@YY-zw2ec 3 жыл бұрын
Ну ты и профЕссор ! Такой мелкий шрифт на картинках поставил на 6:03.
@mrx8312
@mrx8312 3 жыл бұрын
1. В коде есть запись "tf.keras.layers.Dropout(0.5),". Число 0.5 - это не слишком большое число? 2. Есть ли разница писать так "... tf.keras.layers.Dropout(0.5), ..." и вот так "... tf.keras.layers.Dropout(0.25), tf.keras.layers.Dropout(0.25), ..." ? То есть два Dropout подряд.
@phantom74rus
@phantom74rus 4 жыл бұрын
Все отлично , но! Жестикуляция утомляет
@ashmig
@ashmig 4 жыл бұрын
В следующих видео этого курса исправился :)
3 wheeler new bike fitting
00:19
Ruhul Shorts
Рет қаралды 51 МЛН
Haha😂 Power💪 #trending #funny #viral #shorts
00:18
Reaction Station TV
Рет қаралды 14 МЛН
Sigma Girl Past #funny #sigma #viral
00:20
CRAZY GREAPA
Рет қаралды 25 МЛН
Создаём мозг для "змейки". Часть1.
11:22
foo52ru ТехноШаман
Рет қаралды 272 М.
Нейронные сети. Обучающая, валидационная и тестовая выборка
8:01
Институт геологии и нефтегазовых технологий КФУ
Рет қаралды 220
Redis за 20 минут
23:22
suchkov tech
Рет қаралды 104 М.
Самое простое объяснение нейросети
16:30
Программный Кот
Рет қаралды 111 М.
3 wheeler new bike fitting
00:19
Ruhul Shorts
Рет қаралды 51 МЛН