학습 목표
심층신경망을 이해하기 위해 Colab에서 MNIST 문제를 실습합니다.
핵심 키워드
- 파이토치(PyTorch)
- MNIST
- 완전연결층과 ReLU 활성화 함수
- 손실값
학습하기
학습 목표
심층신경망을 이해하기 위해 Colab에서 MNIST 문제를 실습합니다.
핵심 키워드
- 파이토치(PyTorch)
- MNIST
- 완전연결층과 ReLU 활성화 함수
- 손실값
학습하기
학습 내용
- MNIST 손글씨 데이터셋을 모델에 입력하고 학습하는 구조를 이해 합니다.
- 완전연결층과 ReLU 활성화 함수를 사용하여 모델을 구현하고, 크로스 엔트로피 손실 함수를 통해 학습을 진행합니다.
- 학습 과정에서 가중치와 편향의 변화를 시각화하고, 손실값의 감소를 통해 학습 진행 상황을 확인합니다.
<더 알아보기>
[리마인드-심층신경망] 덴스(Dense): 신경망에서 한 층의 모든 뉴런이 다음 층의 모든 뉴런과 연결된 층을 의미합니다. 각 연결은 학습 가능한 가중치를 가지며, 입력 특징들을 종합적으로 처리합니다.
ReLU(Rectified Linear Unit): 입력값이 양수면 그대로 출력하고, 음수면 0으로 출력하는 활성화 함수입니다. 딥러닝에서 가장 널리 사용되는 활성화 함수입니다.
크로스 엔트로피(Cross Entropy): 분류모델의 손실 함수로, 실제 정답 데이터의 분포와 모델이 예측한 데이터의 분포의 차이를 측정합니다. 예를 들어 4지선다 문제에서 1번이 정답일 때, 모델이 "1번(40%), 2번(30%), 3번(20%), 4번(10%)"이라고 예측했다면, 정답인 1번의 확률이 100%에서 얼마나 벗어났는지를 주로 평가합니다. 따라서 "1번이 정답이라고 100% 확신합니다"라고 한 경우가 더 좋은 점수를 받게 됩니다.