공부하는 중~~44 [학습 일지] 오버피팅(overfitting)을 방지해보기 - 3 학습은 저번주에 끝났는데 이것저것 하느라 포스팅을 까먹었네요 오버피팅을 방지해보고자 시도했는데 생각보다 잘 나온 것 같습니다. weight_decay : 4.0e-5 (50epoch) weight_decay : 4.0e-3 (50epoch) weight_decay : 4.0e-3 (150epoch) 왼쪽부터 weight_decay : 4.0e-5 (50epoch) weight_decay : 4.0e-3 (50epoch) weight_decay : 4.0e-3 (150epoch) 입니다. train와 valid loss가 크게 늘어나기는 했지만 그래프의 모양이 전보다 좋아졌습니다. 먼저 weight decay값을 키운 후 50epoch만 돌렸을때는 오히려 안좋게 작용했나 생각했는데 학습횟수를 늘리고 재학습.. 2021. 1. 19. [JavaScript] ==와 ===의 차이 ==와 ===의 차이는 쉽게 구분할 수 있다. '='이 3개 붙은 ===는 '='이 2개붙은 ==보다 강력하게 같은, 즉 정확하게 같을 경우에 true를 반환한다. 간단한 예시를 작성해보겠다. // 만약 데이터로 1과 '1'이 들어왔다고 가정하겠다. if (1 == '1') alert('같습니다!!') if (1 === '1') alert('다릅니다!!') 위처럼 ==의 경우 1과 '1'을 같은 것으로 판단한다. 하지만 여기서 ===는 '='이 하나 더 늘어난만큼 강력하게 비교를 해서 1과 '1'이 다르다고 판단한다. 별차이 없네라고 생각할 수 없지만 또 다른 예시가 있다. // 데이터가 None과 Undefined이 왔다가 가정 if (null == Undefined) alert('같습니다!!') if.. 2021. 1. 13. [학습 일지] 오버피팅(overfitting)을 방지해보기 - 2 어제 오버피팅된 모습을 보고 가중치 규제를 하여 모델이 더 낫게 만들어보자 했었습니다. 똑같이 50epoch를 돌린 결과가 나왔는데요 weight_decay : 4.0e-5 weight_decay : 4.0e-3 심해졌으면 심해졌지 전혀 나아지지 않았습니다...... 왜 그렇지 고민해본 결과 optimizer로 'sgd'를 사용했는데 50epoch로는 택도 없다는 글들이 있어 근거가 뭔지는 모르겠지만 구글 신께서 그렇다고 하니 150epoch까지 epoch를 늘리고 lr1 drop을 90epoch, lr2 drop을 120epoch로 하고 이어서 학습을 해보도록 하겠습니다. 내일 모레 결과가 나올 것 같은데 과연 어떻게 될지 궁금합니다. 거기다가 추가 데이터가 와서 클래스도 늘어나고 데이터량이 약 15만.. 2021. 1. 12. 이전 1 2 3 4 5 6 7 8 ··· 15 다음 반응형