Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- DL
- GoogLeNet
- Gated Skip Connection
- Peephole Connection
- Inception Module
- classification
- Linear
- GCN
- python
- RNN
- Regression
- DCGAN
- virtualenv
- Skip Connection
- Generative
- Skip Connectioin
- Residual Connection
- Optimizer
- sigmoid
- Vanilla RNN
- version
- Bottleneck Layer
- Inception V1
- cnn
- Manager
- vim-plug
- AI
- jupyter
- iTerm2
- ResNet
Archives
- Today
- Total
목록Bottleneck Layer (1)
IT Repository
(6) GoogLeNet (Inception Module & BottleNeck Layer)
GoogLeNet (2014)¶ VGGNet에서 언급하였듯이 GoogLeNet은 2014년도 ILSVRC의 우승 모델입니다. Inception V1이라고 불리며 한번쯤은 들어보았을 만한 Inception V2, V3 시리즈의 초기 버젼입니다. 22개의 레이어를 사용하였으며 GoogLeNet을 시작으로 단순한 CNN 구조에서 좀 더 복잡한 구조의 CNN 모델이 탄생했습니다. 먼저 GoogLeNet의 구조를 가볍게 구경해보겠습니다. 이렇게 복잡하고 깊은 층으로 네트워크를 구성하면 우리가 학습하였듯이 파라미터 수의 증가로 인한 Overfitting과 연산량의 문제가 발생할 수 있습니다. 하지만 GoogLeNet은 놀랍게도 AlexNet 보다도 적은 파라미터의 수와 적은 연산량을 보입니다. (아래 사진 참고) ..
CNN/Study
2020. 1. 14. 18:21