Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/50644
Title: | HUMAN ACTION CLASSIFICATION USING MOTION AND APPEARANCE FEATURES FOR ACTIVITY UNDERSTANDING AND ANOMALY DETECTION IN VISUAL SURVEILLANCE |
Other Titles: | การจำแนกกริยาของมนุษย์โดยใช้ลักษณะการเคลื่อนที่และสภาพปรากฏ เพื่อการเข้าใจกิจกรรมและการตรวจหาความผิดปกติในการเฝ้าระวังจากภาพ |
Authors: | Kanokphan Lertniphonphan |
Advisors: | Supavadee Aramvith Thanarat Chalidabhongse |
Other author: | Chulalongkorn University. Faculty of Engineering |
Advisor's Email: | Supavadee.A@Chula.ac.th,supavadee.aaa@gmail.com,supavadee.aaaa@gmail.com,supavadee.a@chula.ac.th Thanarat.C@Chula.ac.th,thanarat.chali@gmail.com |
Subjects: | Human behavior Human behavior -- Classification พฤติกรรมมนุษย์ พฤติกรรมมนุษย์ -- การจำแนก |
Issue Date: | 2015 |
Publisher: | Chulalongkorn University |
Abstract: | Human action recognition is one of the interesting research areas in computer vision. It is an important component of the automated surveillance system which is needed to reduce the insufficiency and inefficiency of human’s role in the system. However, one of the challenges in action recognition is the extracting appropriate features for classification. Good features should contain both motion and appearance information of human. Also, the feature extraction process should automatically adapt to the speed variation of human actions when applying the system to the different performers, actions, and datasets. In this thesis, we propose the Adaptive Key Frame Interval (AKFI) feature extraction to segment human action into primitive action subsequences. The interval length is automatically changed based on the action characteristic and speed of the performer. Once key frames are detected, the features within a segmented period are encoded by Adaptive Motion History Image (AMHI) and Key Pose History Image (KPHI). The features contain both appearance and motion information of human actions. The experimental results demonstrate that the system can differentiate the unusual action from the normal situation. Also, AMHI and KPHI can effectively classify action compared to other well-known algorithms. |
Other Abstract: | การรู้จำกริยาอาการของมนุษย์จากวีดิทัศน์ เป็นงานวิจัยที่ได้รับความสนใจเรื่องหนึ่งในงานด้านคอมพิวเตอร์วิทัศน์ อันเนื่องมาจากความต้องการในการนำไปประยุกต์ใช้ในงานทางด้านการเฝ้าระวังจากภาพแบบอัตโนมัติ เพื่อทดแทนการดูแลที่ไม่เพียงพอและขาดประสิทธิภาพของมนุษย์ อย่างไรก็ตามโจทย์ที่ท้าทายในการรู้จำกริยาคือการสกัดคุณลักษณะจากภาพที่เหมาะสมต่อการจำแนก คุณลักษณะที่ดีควรประกอบด้วยข้อมูลที่บอกลักษณะการเคลื่อนที่และสภาพปรากฎของบุคคลในภาพ นอกจากนี้กระบวนการสกัดคุณลักษณะควรต้องมีความสามารถในการปรับตัวแบบอัตโนมัติต่อความเร็วที่หลากหลายของการแสดงกริยาของมนุษย์ เมื่อนำระบบไปใช้กับบุคคลต่างๆ กริยาต่างๆ และฐานข้อมูลวีดิทัศน์ที่ต่างกัน วิทยานิพนธ์นี้นำเสนอการสกัดคุณลักษณะของกริยาในช่วงเวลาระหว่างเฟรมหลักแบบปรับตัวได้ (AKFI) เพื่อแบ่งย่อยกริยาของมนุษย์ในชุดลำดับภาพเป็นลำดับภาพย่อยๆของกริยาพื้นฐาน โดยความกว้างของช่วงเวลาดังกล่าวจะถูกปรับเปลี่ยนโดยอัตโนมัติตามลักษณะของกิจกรรม และความเร็วที่แตกต่างกันของแต่ละบุคคล เมื่อตรวจพบเฟรมหลัก ระบบจะเข้ารหัสคุณลักษณะของกริยาภายในช่วงเวลาระหว่างเฟรมหลัก ให้อยู่ในรูปของภาพประวัติการเคลื่อนที่แบบปรับตัวได้ (AMHI) และภาพประวัติท่าทางหลัก(KPHI) ซึ่งคุณลักษณะดังกล่าวประกอบด้วยลักษณะการเคลื่อนที่และสภาพปรากฏของกริยาของมนุษย์ ผลการทดลองแสดงให้เห็นว่า ระบบสามารถแบ่งแยกกริยาไม่ปกติจากสถานการณ์ปกติได้ นอกจากนี้ AMHI และ KPHI สามารถใช้ในการจำแนกกริยาได้อย่างมีประสิทธิภาพ โดยได้ทำการเปรียบเทียบผลลัพธ์การจำแนกกริยากับขั้นตอนวิธีของงานวิจัยอื่นๆ |
Description: | Thesis (Ph.D. (Electrical Engineering))--Chulalongkorn University, 2015 |
Degree Name: | Doctor of Philosophy |
Degree Level: | Doctoral Degree |
Degree Discipline: | Electrical Engineering |
URI: | http://cuir.car.chula.ac.th/handle/123456789/50644 |
URI: | http://doi.org/10.14457/CU.the.2015.146 |
metadata.dc.identifier.DOI: | 10.14457/CU.the.2015.146 |
Type: | Thesis |
Appears in Collections: | Eng - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
5171878921.pdf | 3.44 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.