Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/36104
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorSuphakant Phimoltares-
dc.contributor.advisorSaranya Maneeroj-
dc.contributor.authorChaiyasit Tanchotsrinon-
dc.contributor.otherChulalongkorn University. Faculty of Science-
dc.date.accessioned2013-10-10T11:16:25Z-
dc.date.available2013-10-10T11:16:25Z-
dc.date.issued2010-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/36104-
dc.descriptionThesis (M.Sc.)--Chulalongkorn University, 2010en_US
dc.description.abstractFacial expression is significant for face-to-face communication since it is one of our body language that increases data information during the communication. In recent surveys, it found that feature extraction methods have influenced on facial recognition directly and they can outperform if some irrelevant features are eliminated. Consequently, a procedure of facial expression recognition using graph-based features and artificial neural network is proposed in this thesis, and the procedure can be divided into 2 phases. For the first phase, fourteen points are manually located to create graph with edges connecting among such points, followed by computation of the Euclidean distances from those edges to define them as features for training in the next phase. For the next phase, Multilayer Perceptrons with back-propagation learning algorithm is implemented to recognize six basic emotions from the corresponding feature vectors. To evaluate the performance, Cohn-Kanade AU-Coded facial expression database is applied to the recognition system under various kinds of feature and training technique, and the experimental results have shown that MLP (Graph-based features) without validation and MLP (Graph-based feature) with cross validation can achieve the highest recognition rate (95.24%). Therefore, it has illustrated that the combination of graph-based features and artificial neural network is the efficient way for the facial expression recognition.en_US
dc.description.abstractalternativeการแสดงออกทางสีหน้าเป็นส่วนประกอบสำคัญต่อการสื่อสารของมนุษย์ เนื่องจากเป็นหนึ่งในภาษากายของเราที่จะเพิ่มความเข้าใจกันและกันระหว่างการสื่อสารข้อมูล จากงานวิจัยที่ได้ทำการศึกษาก็พบว่า วิธีการในการสกัดลักษณะเด่นมีผลกระทบต่อการรู้จำการแสดงสีหน้าโดยตรง ดังนั้นการเลือกคัดลักษณะเด่นที่ไม่เกี่ยวข้องกับการแสดงสีหน้าย่อมทำให้การรู้จำการแสดงสีหน้ามีความถูกต้องแม่นยำมากขึ้น ขั้นตอนในการรู้จำการแสดงออกทางสีหน้าในงานวิจัยนี้สามารถแบ่งออกได้เป็นสองขั้นตอน ขั้นตอนแรกคือการกำหนดจุด 14 จุด ที่เกี่ยวข้องกับการแสดงสีหน้า จากนั้นหาระยะทางระหว่างแต่ละจุดเพื่อที่จะเก็บข้อมูลลักษณะของการแสดงสีหน้าเพื่อสร้างเป็นลักษณะเด่นบนพื้นฐานของกราฟ ส่วนขั้นตอนที่สองคือการรู้จำการแสดงสีหน้าด้วยโครงข่ายประสาทเทียมเพื่อที่จะจำแนกการแสดงสีหน้าพื้นฐานทั้งหกประเภทจากลักษณะเด่น ฐานข้อมูลการแสดงสีหน้าที่ถูกเข้ารหัสหน่วยการกระทำของคอห์นและคานาเดะได้ถูกเลือกสำหรับการประเมินค่าความถูกต้องและนำไปใช้ในระบบรู้จำภายใต้ลักษณะเด่นและเทคนิคการฝึกฝนหลายชนิด ผลการทดลองแสดงให้เห็นว่า การใช้ลักษณะเด่นบนพื้นฐานของกราฟโดยไม่ทำการตรวจสอบความสมเหตุสมผลและการใช้ลักษณะเด่นบนพื้นฐานของกราฟโดยทำการตรวจสอบความสมเหตุสมผลให้ค่าความถูกต้องที่ดีที่สุดคือ 95.24% ดังนั้นการใช้ลักษณะเด่นบนพื้นฐานของกราฟร่วมกับโครงข่ายประสาทเทียมจึงเป็นวิธีการที่มีประสิทธิภาพสำหรับการรู้จำการแสดงสีหน้าen_US
dc.language.isoenen_US
dc.publisherChulalongkorn Universityen_US
dc.relation.urihttp://doi.org/10.14457/CU.the.2010.859-
dc.rightsChulalongkorn Universityen_US
dc.subjectNeural networks (Computer science)en_US
dc.subjectOptical pattern recognitionen_US
dc.subjectGraphic methodsen_US
dc.subjectนิวรัลเน็ตเวิร์ค (คอมพิวเตอร์)en_US
dc.subjectการรู้จำภาพen_US
dc.subjectกราฟen_US
dc.titleFacial expression recognition using graph-based features and artificial neural networken_US
dc.title.alternativeการรู้จำการแสดงสีหน้าโดยใช้ลักษณะเด่นบนพื้นฐานของกราฟและโครงข่ายประสาทเทียมen_US
dc.typeThesisen_US
dc.degree.nameMaster of Scienceen_US
dc.degree.levelMaster's Degreeen_US
dc.degree.disciplineComputer Science and Information Technologyen_US
dc.degree.grantorChulalongkorn Universityen_US
dc.email.advisorsuphakant.p@chula.ac.th-
dc.email.advisorsaranya.m@chula.ac.th-
dc.identifier.DOI10.14457/CU.the.2010.859-
Appears in Collections:Sci - Theses

Files in This Item:
File Description SizeFormat 
chaiyasit_ta.pdf3.49 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.