영상을 이용한 실시간 교통사고 검지 및 교통사고 영상 자동저장시스템
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | 유정훈 | - |
dc.contributor.author | 이철주 | - |
dc.date.accessioned | 2018-11-08T07:39:24Z | - |
dc.date.available | 2018-11-08T07:39:24Z | - |
dc.date.issued | 2007-02 | - |
dc.identifier.other | 2316 | - |
dc.identifier.uri | https://dspace.ajou.ac.kr/handle/2018.oak/6559 | - |
dc.description | 학위논문(석사)--아주대학교 ITS대학원 :ITS학과,2007.2 | - |
dc.description.abstract | 본 연구에서는 "영상을 이용한 실시간 교통사고 검지 및 사고영상 자동저장시스템"을 분석하고 현장 적용성을 평가하였다. 이 시스템은 교통사고 상황을 첨단 IT기술을 이용하여 하드디스크 등의 기록 장치에 동영상으로 실시간 저장하고, 필요한 경우 재생하여 교통사고 원인과 경위를 분석할 수 있을 뿐만 아니라, 교통관리센터에 교통사고 관련 자료를 신속하게 전송함으로써 교통사고 이후 후속조치등을 취할 수 있도록 개발되었다. 본 사고검지시스템에서는 증강현실을 이용하여 동영상 정보에서 이동체의 모니터링, 추적, 예측을 통해 비정상적인 변화인지를 판단하여 교통사고를 검지하게 된다. 본 연구개발 시스템의 활용성 및 유효성검증을 위하여 경찰청의 장비규격에 적합한 시스템을 개발하였으며, 본 시스템을 부산지역 4개 교차로를 대상으로 2주간 성능평가를 진행하였다. 그 결과 교통사고 검지율은 규격에 적합하였으나, 유효 취득율 규격에 미달하였다. 그 이유는 이벤트를 많이 발생시킴으로서 유효 취득율은 낮게 나왔고, 반대로 많은 이벤트를 발생시키기에 높은 교통사고 검지율을 얻을 수 있었다. 그 원인은 정상적 흐름에서 교통사고로 검지한 경우들이 가장 많았으며, 이는 거의 폐색오류등으로 분석되어 본 연구시스템의 성능향상을 위해 개선해야 하는 가장 중요한 부분이라 할 수 있다. 향후 시스템의 개발방향은 영상기술의 지속적 발전을 적용한 시스템의 발전이 필요하며, 비정상적 흐름으로 검지된 이벤트에 대한 분석으로 유효 취득율을 높이는 대응이 필요하다. 또한 교차로내의 다양한 단속시스템을 통합하는 단일복합시스템으로의 개발이 필요하며, 향후 교통사고 예방을 위한 사고위험 경고시스템의 개발도 고려하여야 할 분야이다. | - |
dc.description.tableofcontents | 1. 서론 = 1 1.1. 연구배경 = 1 1.2. 연구목적 = 4 1.3. 연구 범위 = 5 1.4. 시스템의 개요 = 6 2. 기존의 관련연구 = 8 2.1. 유형별 기존연구 = 8 2.2. 고정형중 사고검지방식별 기존연구 = 9 2.2.1. 교통음의 수집과 사고음의 식별 = 10 2.2.2. 교차로의 교통음과 사고음 = 11 2.2.3. 교통음의 시간적 변화 = 13 2.2.4. 음원 식별의 개념 = 13 2.2.5. 기기구성 및 기술특성 = 14 2.2.6. 영상의 자동기록 = 15 2.2.7. 기존연구 고찰을 통한 한계도출 = 17 3. 영상방법론 = 19 3.1. 증강현실 = 19 3.1.1. 증강현실 정의 = 19 3.1.2. 증강현실 적용 = 20 4. 시스템 개발 = 22 4.1. 시스템 개요 = 22 4.2. 시스템 구성 = 23 4.3. 시스템 분야 (지역장치부의 운영컴퓨터) = 25 4.3.1. 외형구조 = 26 4.3.2. DVR 동작 사전점검 = 27 4.3.3. 중앙장치부 운영컴퓨터의 화면 구성 = 28 4.3.4. 지역장치부 운영컴퓨터의 화면 구성 = 30 4.3.5. 이동물체의 추적 및 예측 = 31 4.3.6. 교통사고 자동검지 = 35 4.4. 시스템의 구성별 사양 = 38 4.4.1. 운영컴퓨터 = 38 4.4.2. D/B(data base)서버(server) = 38 4.4.3. 통신(通信,communication)서버(server) = 39 4.4.4. 프린터(printer) = 39 4.4.5. 무 정전 전원장치(無 停電 電源裝置, U. P. S) = 39 4.4.6. 지역장치 운영컴퓨터 = 40 4.4.7. CCD(charge coupled device,전하결합소자)카메라 = 40 5. 시범사업 성능검사 = 41 5.1. 성능검사의 검지율 = 41 5.2. 성능검사의 개요 = 41 5.3. 성능검사 결과 = 42 5.3.1. 시스템 정상작동여부 = 42 5.3.2. 이벤트 발생 및 전송여부 = 42 5.3.3. 유효취득 분석결과 = 43 5.4. 성능검사 결과로 본 한계 = 46 6. 결론 = 48 6.1. 연구개발 시스템의 요약 = 48 6.2. 향후 시스템의 개발방향 = 49 참고문헌 = 51 Abstract = 53 | - |
dc.language.iso | kor | - |
dc.publisher | The Graduate School, Ajou University | - |
dc.rights | 아주대학교 논문은 저작권에 의해 보호받습니다. | - |
dc.title | 영상을 이용한 실시간 교통사고 검지 및 교통사고 영상 자동저장시스템 | - |
dc.title.alternative | Lee, Cheol-Joo | - |
dc.type | Thesis | - |
dc.contributor.affiliation | 아주대학교 교통ITS대학원 | - |
dc.contributor.alternativeName | Lee, Cheol-Joo | - |
dc.contributor.department | 교통ITS대학원 ITS학과 | - |
dc.date.awarded | 2007. 2 | - |
dc.description.degree | Master | - |
dc.identifier.localId | 566041 | - |
dc.identifier.url | http://dcoll.ajou.ac.kr:9080/dcollection/jsp/common/DcLoOrgPer.jsp?sItemId=000000002316 | - |
dc.subject.keyword | 교통사고 영상 | - |
dc.description.alternativeAbstract | This study aims at the analysis and assesment of "Image Processing-based Real-time Crash Detection and Automated Image Archiving Systems" and their real-world deployments. The systems are capable of detecting crashes using the state-of-art IT technologies and automatically storing the video images in hard disks, which can be used to analyze the causes of crashes. The real-time crash images are transmitted to the traffic control centers for post-crash responses. The automated crash detection system discussed in this study uses the augmented reality to identify abnormal traffic flow images through three consecutive processes: monitoring, tracking, and forecasting. The system validation was implemented at four distinct intersections in the city of Busan for two weeks. The system used in the validation was developed to fit the NPA (National Police Agency) specification. The test results show that the crash detection rate was above the acceptable level but the correct detection rate fell below the acceptable level. The analysis of results demonstrate that the those rates vary depending on the number of events generated for crash detection. More events result in a lower correct detection rate but a higher detection rate. The future research should be focused on adopting the cutting-edge image processing technologies and improving the correct detection rate. In addition, a single integrated detection system should be developed to combine various traffic detection systems installed at intersections including crash warning systems which are currently under development. | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.