[Easy! 딥러닝] 6-4강. 이거 많이 어렵습니다.. 상위 1%만 알고 있는 딥러닝의 뿌리 이론! MLE (Maximum Likelihood Estimation)

  Рет қаралды 1,494

혁펜하임 | AI & 딥러닝 강의

혁펜하임 | AI & 딥러닝 강의

Күн бұрын

Пікірлер: 20
@hyukppen
@hyukppen Ай бұрын
🔥 혁펜하임과 딥러닝 마스터하기! LEVEL 1 - AI DEEP DIVE (Easy! 딥러닝의 풀버전) hyukppen.modoo.at/?link=8bq84dgm LEVEL 1 - 인스톨! 파이토치 hyukppen.modoo.at/?link=131k3k7g LEVEL 2 - Legend 13 hyukppen.modoo.at/?link=5db82s6p LEVEL 2 - TTT: To The Transformer hyukppen.modoo.at/?link=21c4dj8y LEVEL 3 - ATT: After The Transformer hyukppen.modoo.at/?link=2mcbufeg ‼ 강의 모집 공지 가장 빠르게 받아볼 수 있는 곳! 혁펜하임 딥러닝 톡방 👉 open.kakao.com/o/g8SgoOSd (참여코드: 3300)
@jklim8207
@jklim8207 Ай бұрын
감사합니다. 이렇게 깔끔한 설명은 어디에서도 본 적이 없네요.
@GemMario
@GemMario Ай бұрын
역대급으로 유용한 강의였습니다. 감사합니다.
@user-ok9em3oo8i
@user-ok9em3oo8i 15 күн бұрын
동영상에서 조금 더 나아가서, MSE에 대해 L2 regularization term을 더해 준 loss는, "w에 대해 평균이 0인 gaussian 분포를 따른다는 prior를 걸어준 MAP 기반 loss"로 이해해도 괜찮을까요??
@hyukppen
@hyukppen 15 күн бұрын
@@user-ok9em3oo8i 오 정확합니다! 아직 공개는 안 됐지만 regularization 강의에서 해당 내용이 나옵니다. 한 달 뒤쯤에 한 번 보러 오세요 ㅎㅎ l1 regularization 도 같은 논리를 적용할 수 있겠죠?
@danny04278
@danny04278 Ай бұрын
여기 진짜어렵죠 근데 잘 정리해두면 편해요
@user-ox2cv8ze8b
@user-ox2cv8ze8b 9 күн бұрын
다음 예시가 MLE 이해에 적절할까요? 머리가 긴걸 보니 여자구나. 립스틱을 칠한걸 보니 여자구나. 머리가 길고 립스틱을 칠한걸 보니 넌 정말 여자구나! 한편으로 립스틱 칠한여부에 가중치가 클듯 하기도 합니다.
@hyukppen
@hyukppen 10 сағат бұрын
옙 ㅎㅎ 맞습니다! 가중치의 차이라기보단 그 확률 자체가 클 수 있겠죠?
@Ryan-cm7ju
@Ryan-cm7ju Ай бұрын
와 매번 영상보고 있는데 딱 저에게 필요한 내용이 나오네요 감사합니다! 혹시 질문 하나해도 될까요? 강아지, 고양이를 판별하는 문제에서 bce loss를 사용하여 모델을 학습 시키고 있는데 그외 다른 동물이 오면 둘다 0의 확률로 낮게 나오도록 하려합니다 이런 경우 다른 동물 사진을 충분히 확보하여 라벨이 둘다 0으로 학습하면 원하는 대로 잘 될까요?? 다른 방법이 있다면 알고 싶습니다!
@hyukppen
@hyukppen Ай бұрын
@@Ryan-cm7ju 그때는 클래스가 세 개인 것으로, cross entropy를 사용하셔야 합니다!
@Ryan-cm7ju
@Ryan-cm7ju Ай бұрын
@@hyukppen 감사합니다!
@asdasd-qf3cm
@asdasd-qf3cm Ай бұрын
썸녀 카톡이 28시간마다 오는데 왜 웃으시는거죠...?
@user-zy3ih1yz6e
@user-zy3ih1yz6e Ай бұрын
MAE loss는 likelihood와 prior를 고려해서 나온거라 생각하는데, 그것도 MLE 안에 포함되는 것인가요??
@hyukppen
@hyukppen Ай бұрын
16:21 에서 MAE가 마침 딱 나옵니다 ㅎㅎ
@user-zy3ih1yz6e
@user-zy3ih1yz6e Ай бұрын
label이 laplacian distribution을 따른다고 생각할 때 MAE loss인 |y-y_hat|을 쓰는 것이 전체 관점에서는 MLE 를 쓴다는 것인가요?? 제가 잘 이해를 못한 것 같습니다! 답변 주셔서 감사합니다. 항상 잘 챙겨보고 있습니다.
@hyukppen
@hyukppen Ай бұрын
@@user-zy3ih1yz6e 순서가 반대예요. label이 Laplacian distribution을 따른다고 가정하고 NLL을 구하면 그게 MAE loss 함수 수식이 되는 것입니다
@user-zy3ih1yz6e
@user-zy3ih1yz6e Ай бұрын
@@hyukppen MAE loss를 사용해서 결국 p(y1|w)에서 w를 최대로 만드는 loss는 MAE 방식으로 구하고, p(y1|w)를 최대로 하는 (확률을 최대로 하는) 것이 MLE방식이라고 이해해도 될까요? 결국에 확률을 최대로 하는 w를 찾는데, 그 과정에서는 y1의 값만 고려하기 때문에 전체 맥락적으로는 MLE라고 말해도 될까요? 답변 감사합니다.
@hyukppen
@hyukppen Ай бұрын
​@@user-zy3ih1yz6e 음 수정해야할 사항들이 몇가지 보입니다. 1. "w를 최대로 만드는 loss" 라는 말이 잘 이해가 안갑니다. loss를 최대한 줄이는 w를 찾는 것이 목표입니다. 2. "p(y1|w)를 최대로 하는 (확률을 최대로 하는) 것이 MLE방식이라고 이해해도 될까요?" 맞습니다. 다만 이 때는 첫 번째 데이터에 대해서만 잘하려고 하는 weight를 찾게 되겠죠? 그리고 likelihood 역시 확률이긴 하지만 '확률을 최대화' 한다기보단 likelihood를 최대화 하는 것이 MLE 라고 이해하시는 것이 좋습니다. 아직 조건부 확률보단 likelihood라는 단어가 익숙하지 않아서 그러실 수 있는데요, "likelihood를 최대로 하자"는 것을 많이 되뇌이다보면 금방 친숙해지실 겁니다 ㅎㅎ 3. "y1의 값만 고려하기 때문에 전체 맥락적으로는 MLE라고 말해도 될까요?" MLE는 likelihood를 최대화 하는 방식으로 파라미터를 찾는 추정기법을 가리킵니다. 첫 번째 데이터의 레이블인 y1의 값만 고려했기 때문에 MLE라고 말하는 것이 아닙니다. 19:38 부분 보시면 여러개 데이터에 대해서는 어떻게 전개될지도 보실 수 있습니다. 그리고 데이터가 여러개여도 당연히 MLE입니다.
최대우도법(Maximum Likelihood Estimation) 소개
11:04
공돌이의 수학정리노트
Рет қаралды 45 М.
Look at two different videos 😁 @karina-kola
00:11
Andrey Grechka
Рет қаралды 14 МЛН
👨‍🔧📐
00:43
Kan Andrey
Рет қаралды 10 МЛН
Мы сделали гигантские сухарики!  #большаяеда
00:44
확률 1000000000000000000000000000000배 높이기
16:42
Veritasium 한국어 - 베리타시움
Рет қаралды 378 М.
Grigori Perelman documentary
43:58
Roman Kunin
Рет қаралды 1 МЛН
Look at two different videos 😁 @karina-kola
00:11
Andrey Grechka
Рет қаралды 14 МЛН