본문 바로가기

Data/논문 & 모델 정리

[Model] VGGNet

반응형

VGGNet

  • 참고 자료
  • VGGNet의 구조
  • VGGNet도 ILSVRC 대회에 참여했지만 “준우승”을 한 모델임
    • 준우승인데 왜 주목을 받는지? 그 당시 대회에서 우승을 한 모델은 GoogLeNet인데, 우승모델보다 구조적으로 간단하고 낮지않은 성능으로 주목을 받게되었음
  • VGGNet부터 Layer들이 점점 깊어지기 시작함. 논문의 제목은 “Very Deep Convolutional Networks for Large-Scale Image Recognition”
  • 논문제목에서도 알수있듯이, 네트워크의 “깊이”에 초점이 맞춰진 논문이여서, Convolution 필터 커널 사이즈를 제일작은 3*3으로 고정했다.
  • 논문에서는 총 6개의 구조로 실험을 진행
    • Model D → VGG16, Model E → VGG19
    • LRN → Local Response Normalization
    • A, A-LRN 모델을 비교했을때, 성능상 차이가 없는것으로 보여서, 그 이후의 모델들에 대해서는 LRN을 적용하지않았다고 말함
    • B, C, D, E모델을 관찰하면서 “모델 구조가 깊어질수록 성능이 좋아짐”을 관찰하였음
  • Convolution필터 관점
    • VGGNet에서는 제일작은 3 * 3 필터를 사용했는데.
    • 이는 3 * 3 필터를 두 차례 Convolution하는것과, 5 * 5 필터로 한번 Convolution하는 것이 결과적으로는 동일한 사이즈의 특성맵을 산출함
    • 또한, 3 * 3 필터를 세 차례 Convolution을 하면, 7 * 7 필터로 한번 Convolution하는 것과 동일함
    • 3 * 3 필터로 몇 차례 Convolution하는것이 7 * 7 필터로 한번하는것보다 무엇이 좋을까?
      • 가중치 or Parameter의 갯수 차이. 3 * 3 필터가 3개면 총 27개의 가중치를 갖고, 7 * 7 필터는 49개의 가중치를 갖게됨. CNN에서는 모든 가중치에 대해서 학습이 필요하므로 갯수가 적을수록 훈련시켜야할것도 적어진다는 뜻 → 이로서 학습속도도 빨라지게된다
반응형

'Data > 논문 & 모델 정리' 카테고리의 다른 글

[Model] GoogLeNet  (0) 2022.07.10
[Model] InceptionV3  (0) 2022.07.10
[Model] ResNet  (0) 2022.07.10
[Model] SSD (Single Shot Detection)  (0) 2022.07.10
[Model] AlexNet 정리요약  (0) 2022.07.10