반응형
공부를 위한 요약입니다. 다양한 사이트에서 적힌 내용을 취합한거라 틀린게 있을수도 있습니다 :)
- 참고 자료
- 논문 컨셉
- 논문제목은 “ImageNet Classification with Deep Convolution Neural Networks”
- 이미지 관련 모델로서, 2012년 ILSVRC에서 큰 격차로 1등을 기록. AlexNet은 Alex Krizhevsky라는 1저자가 논문을 써서 그렇게 붙힌듯
- 모델 특징
- 당시 주로 Activation function으로 Sigmoid, tanh를 주로 사용하던 기존 모델과 달리 AlexNet에서는 ReLU함수를 사용
- ReLU의 비용이 다른 Activation Function보다 비교적 적은데, CIFAR-10을 가지고 비교한 결과 25% training error rate에 도달하는 시간이 6배 빠르다고함
- Local Response Normalization
- ReLU는 Sigmoid형 함수와는 달리 input normalization이 필수는 아님. AlexNet에서는 local response normalization을 적용해 오차를 약 1~2% 줄였다고 밝힘
- 최근에는 잘 쓰이지 않는 방법
- Overlapping Pooling
- 보통 CNN같은 이미지 모델에서는 pooling unit의 크기와 stride의 크기가 같이 설정. 하지만 AlexNet에서는 Pooling unit이 더큰 Overlapping Pooling기법을 사용하여 0.4% 오차감소를 얻음.
- Data Augmentation
- “이미지-라벨”이라는 1가지 학습데이터로 이미지에 다양한 변화(사진 뒤집기, 사진 각도 전환 등등…)을 줘서 다양한 데이터셋을 생성하는 방법. 과적합 해소를 위한 방법.
- 논문에서는 두가지 방법을 이용하여 변형을 적용
- 첫번째
- 원본을 먼저 자른 이후
- 이미지를 반전 시킴
- 두번째
- PCA를 통해 RGB값을 변형함
- 첫번째
- Dropout
- 히든 레이어의 특정 뉴런의 출력을 일정 확률로 0으로 만드는것을 의미. 이는 뉴런들의 co-adaption을 줄인다. 즉, 불확실성을 부여해 특정 뉴런에 의존하지 못하도록 하는것. 이 또한 과적합 해소를 위한 방법이다
- 당시 주로 Activation function으로 Sigmoid, tanh를 주로 사용하던 기존 모델과 달리 AlexNet에서는 ReLU함수를 사용
- 모델 구조
- AlexNet은 Multiple GPU에서 학습을 진행함. 3번째 Convolution Layer와 Fully Connected layer를 제외하면 독립적으로 훈련을 진행함모델 구조
반응형
'Data > 논문 & 모델 정리' 카테고리의 다른 글
[Model] ResNet (0) | 2022.07.10 |
---|---|
[Model] SSD (Single Shot Detection) (0) | 2022.07.10 |
[arxiv]Automated Vulnerability Detection in Source Code Using Deep Representation Learning (0) | 2018.09.17 |
[arxiv]Automated software vulnerability detection with machine learning (0) | 2018.09.17 |
[NDSS 2018] VulDeePecker: A Deep Learning-Based System for Vulnerability Detection (0) | 2018.08.29 |