Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Residual Connection
- vim-plug
- Optimizer
- Peephole Connection
- Generative
- version
- virtualenv
- Bottleneck Layer
- AI
- jupyter
- cnn
- DL
- Inception V1
- Skip Connectioin
- GCN
- Vanilla RNN
- sigmoid
- Skip Connection
- ResNet
- python
- DCGAN
- classification
- Manager
- Linear
- GoogLeNet
- Regression
- Inception Module
- Gated Skip Connection
- RNN
- iTerm2
Archives
- Today
- Total
목록regularization (1)
IT Repository
(7) Regularization
Regularization¶ Regularization이란 Overfitting을 막기 위해, 모델 내에서 트레이닝 셋의 Global Minimum에 최적화되지 않도록 훈련에 제약을 걸어두는 방법입니다. 즉, 훈련을 조금 방해해서 트레이닝 셋을 외워버리는 것을 막기 위한 방법입니다. L2 Regularization¶ $\text{Loss} = \text{MSE} + R(\lambda) \\ R(\lambda) = \lambda \cdot ||w||^2$ ($\lambda$: Regularization의 강도를 결정하는 상수, $||w||^2$: L2-Norm) L2 Regularization의 기본 개념은 간단합니다. 모델이 인식하는 Loss를 더 크게 만들어서 훈련이 수렴해버리는 것을 막고자 함입니다...
Basic fundamentals
2020. 1. 13. 17:51