Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- classification
- Generative
- Skip Connectioin
- Optimizer
- Inception V1
- sigmoid
- Bottleneck Layer
- DL
- DCGAN
- version
- Regression
- Linear
- Vanilla RNN
- Manager
- python
- AI
- GCN
- iTerm2
- Inception Module
- GoogLeNet
- vim-plug
- RNN
- Skip Connection
- Gated Skip Connection
- jupyter
- Peephole Connection
- Residual Connection
- virtualenv
- cnn
- ResNet
Archives
- Today
- Total
목록L2 Norm (1)
IT Repository
(7) Regularization
Regularization¶ Regularization이란 Overfitting을 막기 위해, 모델 내에서 트레이닝 셋의 Global Minimum에 최적화되지 않도록 훈련에 제약을 걸어두는 방법입니다. 즉, 훈련을 조금 방해해서 트레이닝 셋을 외워버리는 것을 막기 위한 방법입니다. L2 Regularization¶ $\text{Loss} = \text{MSE} + R(\lambda) \\ R(\lambda) = \lambda \cdot ||w||^2$ ($\lambda$: Regularization의 강도를 결정하는 상수, $||w||^2$: L2-Norm) L2 Regularization의 기본 개념은 간단합니다. 모델이 인식하는 Loss를 더 크게 만들어서 훈련이 수렴해버리는 것을 막고자 함입니다...
Basic fundamentals
2020. 1. 13. 17:51