본문 바로가기

Weight decay3

[학습 일지] 오버피팅(overfitting)을 방지해보기 - 3 학습은 저번주에 끝났는데 이것저것 하느라 포스팅을 까먹었네요 오버피팅을 방지해보고자 시도했는데 생각보다 잘 나온 것 같습니다. weight_decay : 4.0e-5 (50epoch) weight_decay : 4.0e-3 (50epoch) weight_decay : 4.0e-3 (150epoch) 왼쪽부터 weight_decay : 4.0e-5 (50epoch) weight_decay : 4.0e-3 (50epoch) weight_decay : 4.0e-3 (150epoch) 입니다. train와 valid loss가 크게 늘어나기는 했지만 그래프의 모양이 전보다 좋아졌습니다. 먼저 weight decay값을 키운 후 50epoch만 돌렸을때는 오히려 안좋게 작용했나 생각했는데 학습횟수를 늘리고 재학습.. 2021. 1. 19.
[학습 일지] 오버피팅(overfitting)을 방지해보기 - 2 어제 오버피팅된 모습을 보고 가중치 규제를 하여 모델이 더 낫게 만들어보자 했었습니다. 똑같이 50epoch를 돌린 결과가 나왔는데요 weight_decay : 4.0e-5 weight_decay : 4.0e-3 심해졌으면 심해졌지 전혀 나아지지 않았습니다...... 왜 그렇지 고민해본 결과 optimizer로 'sgd'를 사용했는데 50epoch로는 택도 없다는 글들이 있어 근거가 뭔지는 모르겠지만 구글 신께서 그렇다고 하니 150epoch까지 epoch를 늘리고 lr1 drop을 90epoch, lr2 drop을 120epoch로 하고 이어서 학습을 해보도록 하겠습니다. 내일 모레 결과가 나올 것 같은데 과연 어떻게 될지 궁금합니다. 거기다가 추가 데이터가 와서 클래스도 늘어나고 데이터량이 약 15만.. 2021. 1. 12.
[학습 일지] 오버피팅(overfitting)을 방지해보기 - 1 안녕하세요 오랜만입니다. 요즘 사업을 진행하며 모델을 학습하고 적합한 모델을 만들어보라는 미션을 맡게 되었는데요 이번에 2만장 데이터를 학습했는데 다 비슷한 데이터라 심한 오버피팅이 발생했습니다. 답을 외워서 조금만 다른 데이터가 주어지면 틀린 답을 내놓더라구요 그래서 석박사가 아니라 정확히는 모르지만 조사해본 결과 크게 3가지의 방법을 사용한다고 합니다. 1. 데이터의 양을 늘린다. 2. 모델의 복잡도를 줄인다 3. 가중치 규제를 적용한다. 여기서 1번은 충분한 데이터가 이미 있기때문에 패스하고 2번도 기존의 SOTA 모델의 백본을 가져와 사용하기 때문에 3번을 적용시키기로 하였습니다. 제가 사용하는 모델은 efficientDet으로 2019 SOTA인 efficientNet을 사용하는 모델입니다. 그.. 2021. 1. 11.
반응형