CycleGAN을 이용한 야간 상황 물체 검출 알고리즘
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | 황원준 | - |
dc.contributor.author | 조상흠 | - |
dc.date.accessioned | 2022-11-29T02:32:01Z | - |
dc.date.available | 2022-11-29T02:32:01Z | - |
dc.date.issued | 2020-02 | - |
dc.identifier.other | 29548 | - |
dc.identifier.uri | https://dspace.ajou.ac.kr/handle/2018.oak/19497 | - |
dc.description | 학위논문(석사)--아주대학교 일반대학원 :컴퓨터공학과,2020. 2 | - |
dc.description.abstract | 최근 이미지 기반의 객체 검출 분야는 Convolutional Neural Network (CNN)의 도입을 통해 매우 큰 진전을 이루었다. Region-based CNN, Fast R-CNN, 그리고 Faster R-CNN를 포함한 많은 네트워크들이 검출 성능을 높이기 위해 제안되었고, 특히 YOLO는 검출 정확도와 속도의 양 측면에서 최고의 성능을 이루었다. 그러나 YOLO를 포함한 딥러닝 네트워크들은 기본적으로 충분한 양의 학습 데이터를 전제로 하기 때문에, 학습 데이터가 충분하지 않은 상황에서는 네트워크의 성능을 보장할 수 없다는 근본적인 문제를 가지고 있다. 이 문제를 해결하기 위해, 본 논문에서는 입력 이미지의 특성을 유지한 채로 스타일만을 변환시킬 수 있는 CycleGAN을 이용하여 추가적인 데이터를 생성하는 데이터 샘플링 기법을 제안한다. 이를 통해 학습하기에는 양적으로 부족한 분야의 데이터를 추가적으로 생성함으로써 해당 분야의 데이터 수집을 위한 시간과 비용을 절감할 수 있으며, 더 나아가 이미지의 특성(크기, 스타일 등)이 다른 데이터셋들을 조합하여 보다 큰 새로운 데이터셋을 생성할 수도 있다. 이 기법의 유효성을 입증하기 위해 낮 시간대와 밤 시간대의 도로 영상을 포함한 Berkeley Deep Drive(BDD) 데이터셋을 포함한 여러 데이터셋에서 실험을 진행하였으며, 이를 통해 생성한 데이터의 유효성을 입증했다. 또한 생성한 데이터를 이용하여 학습시킨 객체 검출 네트워크는 기존의 데이터셋을 통해 학습시킨 네트워크보다 향상된 성능을 보였다. | - |
dc.description.tableofcontents | I. 서론 1 II. 관련 연구 4 A. Generative Adversarial Network (GAN) 4 B. Image-to-Image Translation 7 C. Neural Style Transfer 8 III. 제안 방법 12 A. Baseline 12 B. 제안 방법의 개요 13 IV. 실험 18 A. 데이터셋 18 1. BDD dataset 18 B. 실험 프로토콜 20 1. CycleGAN [1]과 Huang and Belongie [23]의 변환 이미지 품질 비교 20 2. CycleGAN [1]을 통한 이미지 생성과 YOLO 테스트 21 V. 실험 결과 22 A. 이미지 변환 품질 비교 22 B. CycleGAN [1]을 이용한 이미지 변환 결과 25 C. YOLO [6] 결과 27 VI. 결론 31 VII. 영문 요약 36 | - |
dc.language.iso | kor | - |
dc.publisher | The Graduate School, Ajou University | - |
dc.rights | 아주대학교 논문은 저작권에 의해 보호받습니다. | - |
dc.title | CycleGAN을 이용한 야간 상황 물체 검출 알고리즘 | - |
dc.type | Thesis | - |
dc.contributor.affiliation | 아주대학교 일반대학원 | - |
dc.contributor.department | 일반대학원 컴퓨터공학과 | - |
dc.date.awarded | 2020. 2 | - |
dc.description.degree | Master | - |
dc.identifier.localId | 1138527 | - |
dc.identifier.uci | I804:41038-000000029548 | - |
dc.identifier.url | http://dcoll.ajou.ac.kr:9080/dcollection/common/orgView/000000029548 | - |
dc.subject.keyword | CycleGAN | - |
dc.subject.keyword | Data Sampling | - |
dc.subject.keyword | Image to Image Translation | - |
dc.description.alternativeAbstract | Recently, image-based object detection has made great progress with the introduction of Convolutional Neural Network (CNN). Many trials such as Region-based CNN, Fast R-CNN, and Faster R-CNN, have been proposed for achieving better performance in object detection. YOLO has showed the best performance under consideration of both accuracy and computational complexity. However, these data-driven detection methods including YOLO have the fundamental problem is that they can not guarantee the good performance without a large number of training database. In this paper, we propose a data sampling method using CycleGAN to solve this problem, which can convert styles while retaining the characteristics of a given input image. We will generate the insufficient data samples for training more robust object detection without efforts of collecting more database. We make extensive experimental results using the day-time and night-time road images and we validate the proposed method can improve the object detection accuracy of the night-time without training night-time object databases, because we converts the day-time training images into the synthesized night-time images and we train the detection model with the real day-time images and the synthesized night-time images. | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.