Практика обратного распространения ошибки

  Рет қаралды 6,914

Центр digital профессий ITtensive

Центр digital профессий ITtensive

3 жыл бұрын

Запишетесь на полный курс Машинного обучения на Python по адресу support@ittensive.com

Пікірлер: 29
@ValikzantMusic
@ValikzantMusic 11 ай бұрын
Вот это правда хорошее объяснение. Другие какие то буквы непонятные показывают, словно я их с рождения должен знать, а тут ещё до объяснения каждую букву описали. Супер. Спасибо :)
@bananchik3125
@bananchik3125 Ай бұрын
Здорово, понял на буквах объяснение, но на цифрах всегда полезно посмотреть
@sombra4303
@sombra4303 2 жыл бұрын
Вот реально, лайн и подписка. Из 5-6 видео про обратную ошибку, вы единственный, кто объяснил понятно и я наконец-то понял. Большое человеческое вам спасибо !)
@azizbeknurmatov9823
@azizbeknurmatov9823 3 жыл бұрын
спасибо самый людший угок у тебя. Спасибо что обучаеш бесплатно
@apristen
@apristen 3 жыл бұрын
как работает нейросеть понимал, как обратное распространение общий принцип тоже вроде понимал. но только сейчас понял _в деталях_ как это происходит! спасибо! важно тут что понять (идея): ошибку с выходного нейрона (если несколько - с каждого) ОБРАТНО распространяем _пропорционально весам синапсов_ от предыдущего слоя к этому слою ну и производной ф-ции активации (в ReLU это 1, поэтому вообще не фигурирует в формуле и так просто стало). p.s. я походу не понимал из-за сигмоида, с ReLU где производная равна 1 стало всё понятно! :-)
@QScientist
@QScientist 8 ай бұрын
супер, это самое лучшее и наглядное объяснение которые я видел, а видел я много. Есть оромная куча видео и ссылок в интернете и даже курсов красивых с кучей элементов в них, с кучей подписчиков, но заминающихся именно на этом моменте и не рассказывающих в таких деталях. Тут есть ответы на многие глубокие вопросы. В качестве улучшений хотел бы отметить, что у вас нет производной тут (точнее есть и равна единице, но если бы активация была бы не Relu, то нужно было бы ее учитывать), но к сожалению этого не сказано. Идеально было бы написать общую матричную формулу, которую можно потом подставить в numpy или pytorch, в которой используются понятные обозначения и пояснить как тут применяется chain rule.
@ceo-s
@ceo-s Жыл бұрын
Всё понял. Спасибо!
@user-oq4si8nh9h
@user-oq4si8nh9h 3 жыл бұрын
То есть, если у нас несколько выходных нейронов, то ошибкой будет (сумма произведения весов на соответствующие им выходы) * производную активационной функции?
@user-qd5zh2qi9j
@user-qd5zh2qi9j Жыл бұрын
А почему дельта_3 используется в корректировке весов и w_36, и w_13? А если в сети будет несколько скрытых слоёв, то дельта_3 будет использовать при корректировки весов во всех слоях?
@levkornev1013
@levkornev1013 Жыл бұрын
Спасибо большое, просто огромнейшее, понял только Ваше объяснение происходящего. Пишу нейронку по классификации(входные данные- вектор размером 75000), без вас - никак))
@memhispeedrun7368
@memhispeedrun7368 Жыл бұрын
Хотел бы уточнить: какое значение аргумента подставляется в производную функции? Результат в нейроне? (4:55)
@arthursultan451
@arthursultan451 3 жыл бұрын
Спасибо! Только я не совсем понял, как именно в dW24 получилось -0.336. Мы делим самый большой вес на 2? Не понял логику действия.
@ittensive
@ittensive 3 жыл бұрын
dw24 = d4 * w24 * p2 * LR = -1.12 * 2 * 2 * 0.1 = -0.448 (чуть меньше, чем для dw23). Видимо, в вычисления прокралась ошибка :)
@vitall789
@vitall789 2 жыл бұрын
Почему расчетная формула изменения весов для скрытого в выходной слой, не включила умножение на входящее значения предыдущего нейрона. В то время как формула из первого слоя (входного) в скрытый это учитывает? Это намеренная ошибка? Просто если не учитывать силу сигнала какого-то слоя, то эти веса будут изменяться пропорционально, что прекратит балансировку на этом уровне - это именно актуально для RELU, для сигмойды из-за производной такая балансировка происходит, так как присутствует в т.ч. умножение на входящий сигнал!
@ittensive
@ittensive 2 жыл бұрын
Сила сигнала учтена в значении самого нейрона (ведь в него может входить много сигналов, учесть все можно только через взвешенную сумму)
@Blade_Ruiner
@Blade_Ruiner Жыл бұрын
Все уроки по обратной ошибке поделились на два лагеря: у одних ошибка - это "Что получилось" минус "Что ожидалось", у других - наоборот. Приходится работать с двумя вариантами и долгими ночами искать верный.
@ittensive
@ittensive Жыл бұрын
Если ошибка равна нулю, то не важно, с какой стороны мы к нулю пришли: справа или слева
@QScientist
@QScientist 8 ай бұрын
просто у одних потом стоит минус в поправке, а у других плюс, поэтому как не бери в итоге получим одно и тоже
@vasilvasiliev6491
@vasilvasiliev6491 2 жыл бұрын
А разве ошибка не будет равна квадрату разницы полученного и желаемого значения навыходе последнего нейрона?
@velicumsov
@velicumsov Ай бұрын
это будет квадратичная ошибка
@uralsochi
@uralsochi 10 ай бұрын
Можно побольше формул
@user-xl9kd9mo4v
@user-xl9kd9mo4v 2 жыл бұрын
Если это вычисление повторять много раз то ошибка стремится к 0, а не 0,5
@sensirexfirst
@sensirexfirst 3 жыл бұрын
вроде как формулу изменения веса не должна включать значение самого вес
@ittensive
@ittensive 3 жыл бұрын
вес участвует в передаваемом "объеме" данных: функция активация от (значение на предыдущем слое * вес связи). Поэтому когда считаем изменение веса, в обратную сторону (распространение ошибки), то учитывается вес связи.
@vitall789
@vitall789 2 жыл бұрын
"формула изменения веса не должна включать значение самого веса" - Да вы правы, так происходит с линейной функцией в библиотеке FANN к примеру (хотя кажется это совершенно нелогично), дельта-ошибка тупо умножается на пред. входящее значение и на лёрнинг рэйт (это все прибавляется к весу), а уже сама ошибка умножается на вес до его изменения, только для передачи ее обратно на вход. Это лишает здравого смысла использования линейных функций в начальных слоях.
@user-fs9qn5zt1r
@user-fs9qn5zt1r 2 жыл бұрын
А разве ошибка не должна быть среднеквадратичной?
@ittensive
@ittensive 2 жыл бұрын
Среднеквадоратичной от чего? Мы же рассчитываем индивидуальные значения функции и производных, там нет группировки (нет и среднего, поэтому)
@jetbrain9115
@jetbrain9115 Жыл бұрын
​@@ittensive Среднеквадратичное нужно когда матрицами послойно вычисляют, видимо.
Многослойный перцептрон
7:29
Центр digital профессий ITtensive
Рет қаралды 1,5 М.
Обратное распространение ошибки
10:46
Центр digital профессий ITtensive
Рет қаралды 6 М.
Hot Ball ASMR #asmr #asmrsounds #satisfying #relaxing #satisfyingvideo
00:19
Oddly Satisfying
Рет қаралды 12 МЛН
How many pencils can hold me up?
00:40
A4
Рет қаралды 18 МЛН
Обратное распространение ошибки
21:53
Дмитрий Коробченко
Рет қаралды 53 М.
Backpropagation Algorithm | Neural Networks
13:14
First Principles of Computer Vision
Рет қаралды 32 М.
Самое простое объяснение нейросети
16:30
Программный Кот
Рет қаралды 107 М.
How are memories stored in neural networks? | The Hopfield Network #SoME2
15:14
Обратное распространение. Лекция 12.
1:37:00
Евгений Разинков
Рет қаралды 1 М.
Nokia 3310 versus Red Hot Ball
0:37
PressTube
Рет қаралды 3,8 МЛН
What model of phone do you have?
0:16
Hassyl Joon
Рет қаралды 71 М.
МОЖНО ЛИ заряжать AirPods в чехле 🧐😱🧐 #airpods #applewatch #dyson
0:22
Apple_calls РЕПЛИКА №1 В РФ
Рет қаралды 22 М.