Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤
@user-yg9vi1qt4b3 жыл бұрын
Как же классно что вы продолжаете делать переводы. Большое вам спасибо!
@user-tw7ke2sj9q3 күн бұрын
у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал
@MDunaev3 жыл бұрын
Спасибо большое! Жду продолжения.
@an.toshik3 жыл бұрын
Еще еще еще😍...прекрасные переводы...
@polinab77987 ай бұрын
Какое толковое видео! Спасибо! На примере математического анализа мне вообще было не понятно.
@user-mu5jh5hc2p3 жыл бұрын
Спасибо, ребята!
@user-rd3lj4gn4s2 жыл бұрын
Нужно ещё видео по нейронным сетям!!!
@Hengst.3 жыл бұрын
Ура ! ! Продолжение! Завариваем чай!
@user-du8hm8cm6j3 жыл бұрын
Где? Киньте пожалуйста, у меня не отображается.
@McCosmo7773 жыл бұрын
Привет с Пикабу. Подписался, сейчас смотрю ваши переводы! Первая лекция на старте.
@nullthesis82713 жыл бұрын
Thank you a lot! =) U are the best! =)
@user-st4ih8cu6l2 ай бұрын
Благодарю вас!
@annaponomarova34723 жыл бұрын
вы лучший!!!!!!!!!!!!!!!
@alex_kalinichenko2 жыл бұрын
Супер!!!
@Ciber-FanSistems3 жыл бұрын
Нужен идиальныйй вес!!! ИИ Всем Будеет Счастье!!!
@iq403 жыл бұрын
очень полезно!
@user-du8hm8cm6j3 жыл бұрын
Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).
@VitanXaos3 жыл бұрын
ну так суть то я то же понял, я досконально не уловил)) привык просто разбираться досконально в принципах (код же не закодить "наобум")
@horlonangel2 жыл бұрын
@@VitanXaos такое впечатление, что это делается специально. Прочитал и просмотрел огромное количество материалла, но так и не понял как это работает досконально. Везде много воды (как и в этом видео), которую никто не замечает, ибо не использует это все на практике...
@tigdang2 жыл бұрын
@@horlonangel просто конкретику надо искать на курсах. В курсере машин лёрнинг - там вот да, там конкретика. Просто на ютубе же всё научно-популярное же, нужно развлекать
@eugene_fed Жыл бұрын
@@tigdang конкретику вам даст матан - 5 курсов университета. если кажется, что нейронки - это просто, то это не так. внутри сильная математика, которую на пальцах в 4 20-минутных роликах не описать. хотите разораться "досконально" - нужно получать полноценное высшее образование. вопрос только зачем? pytorch, keras и т.п. для того и разработаны, чтобы в такие дебри не лезть. а информации из этой серии роликов должно быть достаточно, чтобы работать с этими готовыми библиотеками.
@hottabych1373 ай бұрын
@@eugene_fed Вообщем да, лучше под капот не лезть, чтобы не свихнуться. pytorch'а хватает, что такое градиентные спуски, обратный подсчёт весов это не нужно знать, да и тяжело разобрать-понять. Пока будешь понимать как это работает, состаришься, а другие уже понаклепают продуктов на основе нейросетей таких, что потом во веки веков не догонишь 😂 Так и будешь вечно догоняющим и ничего не сделавшим. Хотелось бы понять, как это работает, но увы, надо ботаном становиться минимум на 5 лет
@Techn0man1ac3 жыл бұрын
6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.
@horlonangel2 жыл бұрын
Есть и такие нейронные сети. В них нейроны передвигаются, создают и разрывают соединения, пока учатся.
@krutoyinfo Жыл бұрын
эти нейронные сети не аналог нейронов в мозгу
@keyos2693 ай бұрын
@@horlonangelКак называется подобный принцип работы нейросетей, если не секрет?
@keyos2693 ай бұрын
Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.
@kryptodog10662 ай бұрын
Как я понял чем ближе результат возрата к истине, тем ниже он требует смещение, а исходит нужно из данных полного прогона цифр, то от 1 до 9, если 8=8 а 2 = 1 то мы смещаем лишь одно значение нейрона. Наверное так, но тем слишком тяжкая чтоб я мог сказать точно😂
@user-bn5en3eo4q6 ай бұрын
А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где Wn - обновленный вес, Wp - предыдущее значение веса, a - скорость спуска, df/dWp - наклон к екстремуму функции ошибки ?
@Mrsashafr3 жыл бұрын
великолепно! Добавте PayPal, пожалуйста,
@rollocks9138 Жыл бұрын
Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.
@user-yj3qs3nl9m10 ай бұрын
Получилось ?
@rollocks913810 ай бұрын
@@user-yj3qs3nl9m У меня не было опыта в этой сфере, я взял нейросеть, как тему дипломного проекта. У нее получилась очень низкая точность, к тому же датасет не сбалансирован, хотя рисунки (сделал рисование на winfows forms) при достаточном обучении, иногда распознает. В общем, мне нужно больше опыта, а нейросети больше оптимизации в алгоритме обучения (например параллельные прохождения мини-батчей в нескольких потоках, но я пока хз как это сделать). Но защитить диплом на 5 получилось
@djdje75hbebd5kzoem4 ай бұрын
@@rollocks9138 какой курс?
@rollocks91384 ай бұрын
@@djdje75hbebd5kzoem, в этом году закончил (колледж)
@rollocks91384 ай бұрын
То есть, в прошлом: 2023
@kennyaleasta Жыл бұрын
теоретически все понятно но вот как это может выглядеть в коде я не представляю
@user-wm1pe7mk3z5 ай бұрын
Це база
@user-bq7bm5ss7t3 жыл бұрын
Добавьте, пожалуйста, ссылку на патреон
@bin54602 жыл бұрын
В описании оригинальное видео (это перевод), там найдешь ссылку.
@user-bq7bm5ss7t2 жыл бұрын
@@bin5460 Спасибо!
@MairanYT2 ай бұрын
А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?
@cesarion1613 жыл бұрын
Подскажите пожалуйста как делается подобная визуализация на видео? Это в After Effects сделано?
@O5MO3 жыл бұрын
Это озвучка, про оригинал можете спросить у 3blue1brown.
@llllNEOllllchannel2 жыл бұрын
библиотека в python
@hottabych1373 ай бұрын
After Effects это древний продукт. В нём конечно можно такое сделать, но будет очень сложно и дорого. Анимацию инфографики можно делать и в 3D пакетах, например в Blender
@Ciber-FanSistems3 жыл бұрын
21000!!!!
@RasulAbuMuhammadAmin3 жыл бұрын
Красивый графон, но жвачка вообще
@toxanbi Жыл бұрын
Самый большой вопрос: как вам удалось убрать голос оригинального автора?
@DanSheikh-tv5qo9 ай бұрын
Нейронные сети 🤣
@Chechnya_9595 Жыл бұрын
Automatic HeadShot Accuracy Only!!! PUBG и Config
@YaShoom3 жыл бұрын
Ничего не понял, очень много неточностей (не в переводе, а в объяснении первого автора видео).
@hottabych1373 ай бұрын
Нихера не понятно. Увы. Градиенты, спуски... Это понятно даже воробушку, но представить это на этой сети - не получается. Что, куда? Аа... уже не поспеваешь за роликом и энтропия в голове наслаивается и наслаивается превращаясь в ком "непоняток". Само видео - крутое, качественная анимация, вроде должно дать понимание, представление... но увы, в 45 лет это тяжело осознавать
@avazart6143 жыл бұрын
А переводы предыдущих видео есть?
@user---------2 ай бұрын
НИXPEHA НЕ ПОНЯТНО. 😢
@Fakster_Bakster3 жыл бұрын
Совок много думал о космосе и где он теперь? А вы много думаете о нейронах.
@oshyo20003 жыл бұрын
Хмм... попахивает нацизмом(я нац)
@furry82903 жыл бұрын
Совок остался забытым в песочнице(
@pavelekb3510 Жыл бұрын
аргумент уровня - Эйнштейн много думал... и где он теперь?
@Fakster_Bakster Жыл бұрын
@@pavelekb3510 Вообще-то, Эйнштейн теперь во всём.
@sanemanru2920 Жыл бұрын
@@Fakster_Bakster тоже подушню - вы сначала мотивировали тем что объекта больше нет, а затем перешли на то что не смотря на то что больше объекта нет - он оставил значимый след. дак СССР тоже след оставил. и очевидно что СССР-а нет не из-за того что там "думали о космосе"