반응형
1. 데이터 전처리: 데이터를 표준화하고 정규화하자. (배치놈, 스캐일링)
2. 모델 강제성: 모델이 너무 복잡한지 확인하자. dropout를 추가하고 각 계층의 레이어 수 또는 뉴런 수를 줄입니다.
3. 학습 속도 및 감소 속도 : 학습 속도를 줄이자!
학습을 하기에 좋은 시작 값은 보통 0.0005에서 0.001 사이입니다.또한 1e-6의 decay raet을 고려하십시오.
The model is overfitting right from epoch 10, the validation loss is increasing while the training loss is decreasing.
Dealing with such a Model:
- Data Preprocessing: Standardizing and Normalizing the data.
- Model compelxity: Check if the model is too complex. Add dropout, reduce number of layers or number of neurons in each layer.
- Learning Rate and Decay Rate: Reduce the learning rate, a good starting value is usually between 0.0005 to 0.001. Also consider a decay rate of 1e-6.
출처: <https://datascience.stackexchange.com/questions/43191/validation-loss-is-not-decreasing>
반응형
'딥러닝' 카테고리의 다른 글
[CNN]tensorflow 없이 numpy로만 convolution 날코딩 하기 (0) | 2020.11.10 |
---|---|
[금융]corr matrix을 이용한 계층적 클러스터링을 이용해보기 (0) | 2020.11.10 |
Gpu 인식 못했을 경우 확인코드 (0) | 2020.11.10 |
Classification metrics can t handle a mix of unknown and multiclass targets (0) | 2020.11.10 |
attention 자료 모음 (0) | 2020.11.05 |
댓글