빛 포화 영역 검출을 통한 카메라 자동 보정 알고리즘 개선 방향 연구

DC Field Value Language
dc.contributor.advisor구형일-
dc.contributor.author최정윤-
dc.date.accessioned2019-10-21T07:32:04Z-
dc.date.available2019-10-21T07:32:04Z-
dc.date.issued2018-08-
dc.identifier.other27806-
dc.identifier.urihttps://dspace.ajou.ac.kr/handle/2018.oak/19248-
dc.description학위논문(석사)--아주대학교 IT융합대학원 :IT융합공학과,2018. 8-
dc.description.abstract자동차 업계의 가장 큰 화두는 자율 주행과 지능형 운전자 보조 시스템이라고 할 수 있다. 지능형 운전자 보조 시스템은 사고를 미연에 방지하기 위해 차량 진행 방향에 위치한 물체를 인지하는 시스템으로 카메라, 레이더, 초음파센서 등을 이용한다. 레이더와 초음파센서가 물체와의 거리를 감지하는 것과는 달리 카메라는 물체의 형태를 감지한다는 특징이 있다. 다만, 카메라는 빛에 민감하며 직사광선이나 터널을 통과할 때와 같이 빛의 밝기가 급격히 달라지는 경우 물체를 인식하지 못한다는 단점이 있다. 이러한 단점을 개선하기 위해 본 논문에서는 인공 신경망 네트워크를 이용하여 차량이 터널에서 탈출 할 때 빛이 포화되는 영역을 검출하고 차와 포화 영역의 거리가 일정 거리 미만이 되면 이를 자동으로 보정하여 포화 영역에 있는 물체를 감지할 수 있는 방안을 제안한다. 빛 포화 영역을 검출하는 방법으로는 인공 신경망 네트워크 중 하나인 SSD를 활용하여 짧은 시간 동안 높은 정확도로 검출할 수 있도록 구현하였다. 실험 결과 빛 포화 영역까지의 거리를 감지하는데 79fps의 속도로 98.2%의 거리 감지 정확도를 보였다. 보정 방법으로는 적응적 히스토그램 평활화를 활용했을 때 물체의 경계선이 가장 두드러지나 물체 구분에는 한계가 있음을 확인하였다. 이미지 보정에 있어서는 촬영된 영상이 아닌 촬영 시 카메라 매개 변수 제어가 필요하며 이는 향후 연구로 남겨 두기로 한다.-
dc.description.tableofcontents제 1 장 서론 - 1 - 제 1 절 연구배경 - 1 - 제 2 절 연구방법 및 내용 - 2 - 제 3 절 논문 구성 - 2 - 제 2 장 관련 시스템 및 연구 - 3 - 제 1 절 ADAS - 3 - 제 2 절 차량용 카메라 시스템 - 9 - 제 3절 터널 인식과 차량용 카메라에 관한 기존 연구 - 16 - 제 3 장 차량용 카메라 자동 보정 연구 - 17 - 제 1절 제안하는 방법 - 17 - 제 2 절 데이터 취득 및 레이블링 - 17 - 제 3 절 학습 모델 및 보정 방법 선택 - 19 - 제 4 절 실험 결과 - 21 - 제 4 장 결론 - 23 - 참고 문헌 - 24 - Abstract - 27 --
dc.language.isokor-
dc.publisherThe Graduate School, Ajou University-
dc.rights아주대학교 논문은 저작권에 의해 보호받습니다.-
dc.title빛 포화 영역 검출을 통한 카메라 자동 보정 알고리즘 개선 방향 연구-
dc.title.alternativeDNN-based saturation region detection methods for intelligent AEC-
dc.typeThesis-
dc.contributor.affiliation아주대학교 IT융합대학원-
dc.contributor.alternativeNameJoungyun Choi-
dc.contributor.departmentIT융합대학원 IT융합공학과-
dc.date.awarded2018. 8-
dc.description.degreeMaster-
dc.identifier.localId887761-
dc.identifier.uciI804:41038-000000027806-
dc.identifier.urlhttp://dcoll.ajou.ac.kr:9080/dcollection/common/orgView/000000027806-
dc.subject.keywordADAS-
dc.subject.keywordCamera-
dc.subject.keywordObject detection-
dc.subject.keywordTunnel-
dc.subject.keywordDNN-
dc.subject.keywordLight saturation-
dc.description.alternativeAbstractRecently, ADAS (Advanced Driver Assistance System) and autonomous driving systems receive lots of attention. Camera, ultrasonic sensor and radar are used to understand scenes and detects objects to prevent accidents. Unlike radar and ultrasonic sensors that detect the distance to an object, cameras detect and classify a shape of the object. However, the camera is sensitive to light so it can’t recognize an object if the brightness of the light rapidly changes, such as when passing through direct sunlight or a tunnel. In order to overcome this disadvantage, this paper propose a method to detect object using Deep Neural Network to detect the light saturation region when the vehicle escapes from the tunnel and automatically exposure correct if the distance between the car and saturation region is less than a certain distance. Experimental results show the accuracy of 98.2% at the speed of 79 fps to detect the distance to the light saturation region using SSD. Regarding an exposure correction method, CLAHE (Contrast Limited Adaptive Histogram Equalization) shows most noticeable object boundary but it is not at a level that can distinguish objects. In image correction, camera parameter control is needed for shooting and this will be left as future research.-
Appears in Collections:
Special Graduate Schools > Graduate School of IT Convergence > Department of IT Convergence Engineering > 3. Theses(Master)
Files in This Item:
There are no files associated with this item.

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse