유비쿼터스 컴퓨팅 환경에서 멀티 센서기반 인간행동감지기술 연구

Author(s)
조용원
Advisor
조위덕
Department
일반대학원 전자공학과
Publisher
The Graduate School, Ajou University
Publication Year
2008-08
Language
kor
Keyword
유비쿼터스멀티센서행동인식가속도이미지센서영상처리
Abstract
유비쿼터스 환경에서 사람의 행동을 인식하는 연구는 중요한 분야 중 하나이다. 본 논문에서는 이미지 센서와 가속도 센서가 결합된 멀티 센서기반으로 사람의 행동을 정확하게 인식할 수 있는 알고리즘을 제안한다. 이미지 센서에서 전달된 영상에서 픽셀의 움직임 변화를 분석하기 위해 Burt-Adelson의 가우시안 피라미드가 적용된 Lukas-Kanade 옵티컬 플로우방법을 사용하였다. 또한 앞으로 걷기와 뒤로 걷기를 분류하기 위해 그리드 기반의 영역 분리 방법을 이용하였다. 각 행동필터타입과 초기 설정된 특징점 개수에 따라 행동 인식을 분석하였다. 가속도 센서의 데이터를 FFT를 이용하여 주파수 대역폭으로 변환 후 적절한 윈도우를 설정한 후 SVM을 이용하여 행동을 분류하였다. 9가지 행동레벨을 정한 후 이미지 센서와 가속도 센서를 활용한 AMS(Activity of Multi-Sensor)새로운 행동 인식기능 방법을 이용하였을 때 기존의 단일 알고리즘 때 보다 더 좋은 성능을 보여준다. 실험을 통해 행동을 인식한 결과는 평균 93%였다.
Alternative Abstract
The study of human activity recognition is one of the most important concerns in many ubiquitous computing systems. In this paper, we developed human activity algorithms for accurate human activity recognition based on multi sensors using an image sensor and a 3-axis accelerometer. In the images sensor, we used Lukas-Kanade optical flow with Gaussian Pyramid to recognize human activity analyzing the pixels of images. And ‘WalkingForward’ and ‘WalkingBackward’ are classified using grid.based optical flow method. For calculating the accuracy of human activity recognition, we used AF type and initial feature points. In the 3-axis accelerometer sensor, we created adequate windows after transforming frequency domain using FFT for feature extraction and used SVM for human activity recognition. In the experiments, our classifiers showed superiority about AMS using an image sensor and a 3-axis accelerometer. The result of an overall accuracy has been 93%.
URI
https://dspace.ajou.ac.kr/handle/2018.oak/2940
Fulltext

Appears in Collections:
Graduate School of Ajou University > Department of Electronic Engineering > 3. Theses(Master)
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse