Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- DCGAN
- Residual Connection
- Bottleneck Layer
- virtualenv
- RNN
- version
- AI
- cnn
- GCN
- Vanilla RNN
- sigmoid
- DL
- Linear
- jupyter
- Inception Module
- Generative
- iTerm2
- classification
- Skip Connection
- vim-plug
- GoogLeNet
- Regression
- Inception V1
- ResNet
- python
- Gated Skip Connection
- Optimizer
- Manager
- Skip Connectioin
- Peephole Connection
Archives
- Today
- Total
목록Bottleneck Layer (1)
IT Repository
(6) GoogLeNet (Inception Module & BottleNeck Layer)
GoogLeNet (2014)¶ VGGNet에서 언급하였듯이 GoogLeNet은 2014년도 ILSVRC의 우승 모델입니다. Inception V1이라고 불리며 한번쯤은 들어보았을 만한 Inception V2, V3 시리즈의 초기 버젼입니다. 22개의 레이어를 사용하였으며 GoogLeNet을 시작으로 단순한 CNN 구조에서 좀 더 복잡한 구조의 CNN 모델이 탄생했습니다. 먼저 GoogLeNet의 구조를 가볍게 구경해보겠습니다. 이렇게 복잡하고 깊은 층으로 네트워크를 구성하면 우리가 학습하였듯이 파라미터 수의 증가로 인한 Overfitting과 연산량의 문제가 발생할 수 있습니다. 하지만 GoogLeNet은 놀랍게도 AlexNet 보다도 적은 파라미터의 수와 적은 연산량을 보입니다. (아래 사진 참고) ..
CNN/Study
2020. 1. 14. 18:21