HEVC의 고속 처리를 위한 텍스쳐기반 CU 결정 알고리즘

DC Field Value Language
dc.contributor.advisor선우명훈-
dc.contributor.author하재명-
dc.date.accessioned2018-11-08T08:21:31Z-
dc.date.available2018-11-08T08:21:31Z-
dc.date.issued2015-02-
dc.identifier.other18923-
dc.identifier.urihttps://dspace.ajou.ac.kr/handle/2018.oak/13032-
dc.description학위논문(석사)--아주대학교 일반대학원 :전자공학과,2015. 2-
dc.description.abstractHEVC는 기존의 비디오 압축 표준인 H.264/AVC 에 비해 2배의 압축 성능을 보인다. 하지만 연산 복잡도가 높다는 단점이 있어 최근에는 실시간 처리를 위해 성능저하 없이 인코더의 연산 복잡도를 줄이기 위한 연구가 진행되고 있다. 특히, 움직임 추정은 HEVC인코더에서 연산량의 74.5%를 차지하고 있어 연산 복잡도를 줄이기 위한 연구가 필요하다. 기존의 CU결정 알고리즘이 모든 CU에 대해서 PU단위로 예측을 수행하지만 제안하는 알고리즘은 영상의 텍스쳐를 기반으로 하여 CU 크기를 먼저 결정하여 해당하는 CU에서만 예측을 수행하여 불필요한 예측을 줄여 연산 복잡도를 줄였다. 제안하는 알고리즘은 HEVC Test Model 14.0에 비해서 평균적으로2.5%의 BDBR이 증가하지만, 인코더의 연산 시간을 50% 이상 줄였다. 본 논문은 연산 복잡도를 줄이는 것이 중점으로 하였고, 기존의 알고리즘에 비해 연산 복잡도를 대폭 줄여 영상의 실시간 처리에 용이하다.-
dc.description.tableofcontents제 1 장 서 론 1 제 2 장 HEVC의 움직임 추정 3 제 1 절 HEVC의 Quad-tree 구조 3 제 2 절 HEVC의 모드 결정 방법 5 제 3 장 제안하는 고속 움직임 추정 알고리즘 10 제 1 절 제안하는 CU 결정 알고리즘의 흐름 10 제 2 절 제안하는 고속 CU 깊이 결정 알고리즘의 흐름 15 제 4 장 성능 평가 19 제 1 절 HEVC의 공통 실험 조건 19 제 2 절 제안하는 알고리즘의 성능 평가 21 제 5 장 결 론 29 참고 문헌 30 Abstract 33-
dc.language.isokor-
dc.publisherThe Graduate School, Ajou University-
dc.rights아주대학교 논문은 저작권에 의해 보호받습니다.-
dc.titleHEVC의 고속 처리를 위한 텍스쳐기반 CU 결정 알고리즘-
dc.title.alternativeJae-Myung Ha-
dc.typeThesis-
dc.contributor.affiliation아주대학교 일반대학원-
dc.contributor.alternativeNameJae-Myung Ha-
dc.contributor.department일반대학원 전자공학과-
dc.date.awarded2015. 2-
dc.description.degreeMaster-
dc.identifier.localId695405-
dc.identifier.urlhttp://dcoll.ajou.ac.kr:9080/dcollection/jsp/common/DcLoOrgPer.jsp?sItemId=000000018923-
dc.subject.keywordHEVC-
dc.subject.keywordmotion estimation-
dc.subject.keywordCU-
dc.subject.keyworddepth-
dc.subject.keywordintra prediction-
Appears in Collections:
Graduate School of Ajou University > Department of Electronic Engineering > 3. Theses(Master)
Files in This Item:
There are no files associated with this item.

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse