Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Skip Connection
- Inception Module
- DL
- Manager
- Gated Skip Connection
- Generative
- virtualenv
- DCGAN
- RNN
- sigmoid
- Bottleneck Layer
- Inception V1
- version
- Vanilla RNN
- GCN
- Residual Connection
- Linear
- iTerm2
- jupyter
- Skip Connectioin
- ResNet
- vim-plug
- Regression
- cnn
- classification
- Optimizer
- GoogLeNet
- AI
- python
- Peephole Connection
Archives
- Today
- Total
목록ResNet (1)
IT Repository

ResNet (2015)¶ ResNet은 2015년도 ILSVRC 에서 우승을 차지한 모델입니다. 총 152개의 레이어를 가진 Ultra-deep한 네트워크입니다. Difficulty of Training Deep CNN¶ 2014년도에 CNN의 Depth와 Structure을 폭발적으로 발전시킨 이후에 많은 사람들이 Deep CNN에 대한 연구를 시작했습니다. 그러나 우리가 알고 있는 사실과 정반대의 현상들이 관찰되기 시작되었습니다. 아래의 그래프를 먼저 보겠습니다. 위 그래프는 ResNet을 발표한 논문에서 저자가 이 문제를 설명하기 위한 그래프입니다. 이를 보면 더 Deep한 Network가 오히려 더 Shallow한 Network보다 낮은 성능을 기록하는 문제를 확인할 수 있습니다. 생각을 해보면..
CNN/Study
2020. 1. 14. 19:37