Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/11821
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorบุญเสริม กิจศิริกุล-
dc.contributor.authorสุกรี สินธุภิญโญ-
dc.contributor.otherจุฬาลงกรณ์มหาวิทยาลัย. บัณฑิตวิทยาลัย-
dc.date.accessioned2009-12-09T10:21:29Z-
dc.date.available2009-12-09T10:21:29Z-
dc.date.issued2541-
dc.identifier.isbn9743321519-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/11821-
dc.descriptionวิทยานิพนธ์ (วศ.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2541en
dc.description.abstractการรู้จำตัวพิมพ์อักษรไทยได้รับการศึกษาจากผู้วิจัยอย่างแพร่หลายมาเป็นเวลานานโดยมีการใช้วิธีการต่างๆ เพื่อทำการทดลอง วิธีการโปรแกรมตรรกะเชิงอุปนัย (Inductive Logic Programming:ILP) หรือไอแอลพี เป็นวิธีการหนึ่งที่ถูกนำมาใช้กับการรู้จำตัวพิมพ์อักษรไทยได้เป็นอย่างดี มีอัตราการรู้จำ 84.97% ซึ่งวิธีการนี้ทำการรู้จำโดยการสร้างกฎขึ้นจากตัวอย่างบวก ตัวอย่างลบ และความรู้ภูมิหลัง ทั้งหมดนี้ถูกอธิบายในรูปของโปรแกรมเชิงตรรกะ อย่างไรก็ตามในการใช้วิธีการไอแอลพีเพื่อทำการจำแนกตัวพิมพ์อักษรไทย 77 ตัว ออกเป็นหลายคลาส (class) จะเกิดปัญหาขึ้น เนื่องจากระบบที่ใช้วิธีการไอแอลพีส่วนใหญ่จะทำงานเกี่ยวกับตัวอย่างเพียง 2 คลาส คือ ตัวอย่างบวก และตัวอย่างลบ และสร้างกฎสำหรับตัวอย่างบวกขึ้น ตัวอย่างที่ไม่ตรงกับกฎจะถูกจำแนกเป็นลบ ในวิทยานิพนธ์ฉบับนี้ วิธีการไอแอลพีจะต้องทำการเรียนรู้แนวคิดแบบหลายคลาส (multi-class concept) ซึ่งสามารถกระทำได้โดยสร้างกฎสำหรับแต่ละคลาสขึ้นจากตัวอย่างบวกซึ่งเป็นตัวอย่างของคลาสนั้นและตัวอย่างลบซึ่งเป็นตัวอย่างของคลาสอื่นๆ กฎเหล่านี้จะถูกนำไปใช้ในการจำแนกตัวอย่างใหม่ต่อไป แต่ในกรณีของตัวอย่างใหม่โดยเฉพาะอย่างยิ่งตัวอย่างที่มีสัญญาณรบกวนอาจไม่ตรงกับกฎข้อใดเลย ซึ่งวิธีการไอแอลพีจะไม่สามารถจำแนกตัวอย่างเหล่านี้ได้ ดังนั้นจึงต้องใช้วิธีการอื่นเพื่อทำการประมาณในการเลือกกฎที่ใกล้เคียงกับตัวอย่างในกรณีดังกล่าว วิทยานิพนธ์ฉบับนี้นำเสนอวิธีการทำการประมาณเพื่อเลือกกฎโดยใช้แบ็กพรอพาเกชันนิวรอลเน็ตเวิร์ก (Backpropagation Neural Network: BNN) หรือ บีเอ็นเอ็น ซึ่งในบีเอ็นเอ็นแบบที่หนึ่งใช้จำนวนสัญพจน์ (literal) ที่ไม่ตรงและจำนวนสัญพจน์ที่ตรงกับตัวอย่างเป็นอินพุตเวกเตอร์ (input vector) ในกระบวนการเรียนรู้ อัตราการรู้จำของบีเอ็นเอ็นแบบนี้มีค่า 92.55% ซึ่งสูงกว่าอัตราการรู้จำของไอแอลพีเพียงอย่างเดียว แต่ข้อเสียคือบีเอ็นเอ็นแบบที่หนึ่งนี้ให้ความสำคัญของทุกสัญพจน์ในกฎแต่ละข้อเท่ากัน ดังนั้นจึงไม่สามารถกำหนดให้สัญพจน์ที่สำคัญกว่ามีค่าน้ำหนักมากกว่าสัญพจน์อื่นๆ ได้ เมื่อใช้ค่าความจริงของสัญพจน์ทุกสัญพจน์ในกฎแต่ละข้อแทนจำนวนสัญพจน์ที่ไม่ตรงและจำนวนสัญพจน์ที่ตรงกับตัวอย่างเป็นอินพุตเวกเตอร์ในโครงสร้างบีเอ็นเอ็นแบบที่สอง ทำให้ได้อัตราการรู้จำสูงขึ้นเป็น 94.26% ซึ่งสูงกว่าวิธีการอื่นๆ ที่ทำการทดสอบในวิทยานิพนธ์ฉบับนี้en
dc.description.abstractalternativeThai printed character recognition has been widely studied for many years. Several approaches to this task have been proposed. Inductive Logic Programming (ILP) was one successful approach that achieved 84.97% of recognition accuracy. ILP produces the definition of the rules from positive examples, negative examples and background knowledge, all of which are described in logic programs. However, some problems arise when ILP is applied to task of classifying 77 different Thai characters where there are several classes of examples. Most ILP systems work with two classes of examples (positive and negative), and construct a set of rules for the positive class. Any example not covered by the rules is classified as negative. In this thesis, ILP must learn a multi-class concept that could be produced by constructing a set of rules for each class with its examples as positive and the other examples as negative. These learned rules are then used to classify future data. However, in case of unseen character images, especially the noisy images, may not exactly match with any rules in the rule set, i.e., they may not be covered by any rules. Thus, a method for approximating the rule that best matches the unseen image is needed. This thesis presents a method for rule approximation by using Backpropagation Neural Network (BNN). First the number of nonmatching literals and the number of matching literals are used as the training input vector to BNN. The recognition accuracy of the first BNN is 92.55% which improves that of ILP alone. However, the disadvantage of this BNN is that it takes each literal in a rule with equal significance. Thus, it is unable to give important literals higher weights than others. Instead of the numbers of nonmatching and matching literals, the second structure of BNN is designed to uses the truth values of all literals as the input vector. This second BNN yields the significant improvement by achieving 94.26% accuracy and surpasses the other methods tested in this thesis.en
dc.format.extent799388 bytes-
dc.format.extent748736 bytes-
dc.format.extent938927 bytes-
dc.format.extent918914 bytes-
dc.format.extent771488 bytes-
dc.format.extent709290 bytes-
dc.format.extent957207 bytes-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.language.isothes
dc.publisherจุฬาลงกรณ์มหาวิทยาลัยen
dc.rightsจุฬาลงกรณ์มหาวิทยาลัยen
dc.subjectการรู้จำอักขระ (คอมพิวเตอร์)en
dc.subjectภาษาไทย -- ตัวอักษรen
dc.subjectแบคพรอพาเกชัน (ปัญญาประดิษฐ์)en
dc.subjectนิวรัลเน็ตเวิร์ค (คอมพิวเตอร์)en
dc.subjectการโปรแกรมตรรกะเชิงอุปนัยen
dc.titleการประยุกต์การโปรแกรมตรรกะเชิงอุปนัยและแบ็กพรอพาเกชันนิวรอลเน็ตเวิร์กในการรู้จำตัวพิมพ์อักษรไทยen
dc.title.alternativeAn application of inductive logic programming and backpropagation neural network to Thai printed character recognitionen
dc.typeThesises
dc.degree.nameวิศวกรรมศาสตรมหาบัณฑิตes
dc.degree.levelปริญญาโทes
dc.degree.disciplineวิศวกรรมคอมพิวเตอร์es
dc.degree.grantorจุฬาลงกรณ์มหาวิทยาลัยen
dc.email.advisorBoonserm.K@chula.ac.th-
Appears in Collections:Grad - Theses

Files in This Item:
File Description SizeFormat 
Sukree_Si_front.pdf780.65 kBAdobe PDFView/Open
Sukree_Si_ch1.pdf731.19 kBAdobe PDFView/Open
Sukree_Si_ch2.pdf916.92 kBAdobe PDFView/Open
Sukree_Si_ch3.pdf897.38 kBAdobe PDFView/Open
Sukree_Si_ch4.pdf753.41 kBAdobe PDFView/Open
Sukree_Si_ch5.pdf692.67 kBAdobe PDFView/Open
Sukree_Si_back.pdf934.77 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.