학습목표경사하강법(Gradient descent)에 대해 더 자세히 알아본다.핵심키워드가설 함수(Hypothesis Function)평균 제곱 오차(Mean Squared Error)경사하강법(Gradient descent)
동영상을 불러오고 있습니다. 잠시만 기다려 주세요. Video will play after Ad Next subject author Cancel 0:00:00 Play Mute 00:00 00:00 Live Settings Wide Enter fullscreen Quality currentTrack Subtitles Subtitles Off Speed NaNx Quality Subtitles Settings Subtitles Off Option Font size Background color Speed 0.5x 1.0x (default) 1.5x 2.0x An unknown error has occurred. Help Muted Help License High-definition playback is available for this video. Change the resolution in Settings. Learn more 0:00:00 재생하기 00:0007:37 embed url 스크립트스크립트 넓은 화면 ON 좁은 화면 ON OFF 돌아가기 스크립트 북마크 스크립트 언어선택
comment
비공개 글입니다.
강의 자료에 오타가 있네요. Gradient descent에서 grad W라고 표기된 항이 grad Cost가 맞는 것 같습니다. 확인해주세요.
아 이전영상 이해 안되서 막 찾아보고 이해했었는데 이번영상에서 설명해주시네요......
뒷부분 강의를 듣지 않아서 뒤에 나오는지는 모르겠으나, learning rate라는 값의 정확한 의미와 설정 기준을 좀 더 자세히 알고싶네요
Full code에서 gradient 식이 앞쪽에서 사용한 2 * torch.mean((W * x_train - y_train) * x_train) 에서 torch.sum((W * x_train - y_train) * x_train)으로 바뀐 이유가 있을까요?
이번 학습과 이전 학습의 순서가 바뀐 느낌입니다.
기존 학습에서 "이미 익숙한것"이라고 표현한 코드들을 이번 학습에선 설명해주네요.