Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Regression
- GCN
- virtualenv
- python
- cnn
- Skip Connectioin
- Vanilla RNN
- GoogLeNet
- vim-plug
- jupyter
- Peephole Connection
- Inception Module
- Inception V1
- Skip Connection
- Generative
- AI
- Gated Skip Connection
- Optimizer
- sigmoid
- Manager
- iTerm2
- RNN
- DCGAN
- Residual Connection
- Linear
- ResNet
- Bottleneck Layer
- classification
- version
- DL
Archives
- Today
- Total
목록regularization (1)
IT Repository
(7) Regularization
Regularization¶ Regularization이란 Overfitting을 막기 위해, 모델 내에서 트레이닝 셋의 Global Minimum에 최적화되지 않도록 훈련에 제약을 걸어두는 방법입니다. 즉, 훈련을 조금 방해해서 트레이닝 셋을 외워버리는 것을 막기 위한 방법입니다. L2 Regularization¶ $\text{Loss} = \text{MSE} + R(\lambda) \\ R(\lambda) = \lambda \cdot ||w||^2$ ($\lambda$: Regularization의 강도를 결정하는 상수, $||w||^2$: L2-Norm) L2 Regularization의 기본 개념은 간단합니다. 모델이 인식하는 Loss를 더 크게 만들어서 훈련이 수렴해버리는 것을 막고자 함입니다...
Basic fundamentals
2020. 1. 13. 17:51