Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/47564
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorบุญเสริม กิจศิริกุล
dc.contributor.authorสมปอง เสนาอัมพรชัย
dc.contributor.otherจุฬาลงกรณ์มหาวิทยาลัย. คณะวิศวกรรมศาสตร์
dc.date.accessioned2016-05-24T07:22:25Z
dc.date.available2016-05-24T07:22:25Z
dc.date.issued2549
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/47564
dc.descriptionวิทยานิพนธ์ (วท.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2549en_US
dc.description.abstractในวิทยานิพนธ์นี้ ศึกษาการเปรียบเทียบระหว่างนิวรอลเน็ตเวิร์กแบบป้อนไปข้างหน้าและนิวรอลเน็ตเวิร์กแบบวกกลับในการรู้จำตัวเลขลายมือเขียน โครงสร้างทั้งสามของนิวรอลเน็ตเวิร์กแบบวกกลับที่ใช้ในการทดลอง คือ ในโครงสร้างที่ 1 โหนดในชั้นอินพุตในขั้นตอนก่อนหน้าถูกป้อนกลับไปที่โหนดในขั้นตอนถัดไป ในโครงสร้างที่ 2 โหนดในชั้นซ่อนในขั้นตอนก่อนหน้าถูกป้อนกลับไปที่โหนดในชั้นอินพุตในขั้นตอนถัดไป ในโครงสร้างที่ 3 โหนด ในชั้นเอาท์พุตในขั้นตอนก่อนหน้าถูกป้อนกลับไปที่โหนดในชั้นอินพุตในขั้นตอนถัดไป ทดลองเปรียบเทียบเน็ตเวิร์กทั้งสี่ชนิด (นิวรอลเน็ตเวิร์กแบบป้อนไปข้างหน้าและนิวรอลเน็ตเวิร์กแบบวกกลับทั้งสามโครงสร้าง) ข้อมูลที่ใช้ในการทดลอง คือ ลายมือเขียนตัวเลขอารบิก (0-9) ตัวเลขละ 10,000 ตัวอย่าง ขั้นแรกเลือกนิวรอลเน็ตเวิร์กแบบวกกลับหนึ่งชนิดพร้อมด้วยเซตพารามิเตอร์ที่ดีที่สุดซึ่งให้ประสิทธิภาพดีที่สุด เหนือกว่านิวรอลเน็ตเวิร์กแบบวกกลับทั้งสามโครงสร้างและเลือกนิวรอลเน็ตเวิร์กแบบป้อนไปข้างหน้า หนึ่งเน็ตเวิร์กพร้อมด้วยเซตพารามิเตอร์ที่ดีที่สุด ขั้นถัดไปนำนิวรอลเน็ตเวิร์กแบบวกกลับและนิวรอลเน็ตเวิร์กแบบป้อนไปข้างหน้าที่ได้ ไปเปรียบเทียบกันอย่างละเอียดโดยใช้การตรวจสอบไขว้ 5 พับ ผลการทดลอง พบว่า นิวรอลเน็ตเวิร์กแบบป้อน ไปข้างหน้าให้ความถูกต้องสูงกว่านิวรอลเน็ตเวิร์กแบบวกกลับen_US
dc.description.abstractalternativeIn this thesis, we study the comparison between feed-forward and recurrent neural networks in hand-written digit recognition. Three topologies of the recurrent neural networks have been investigated. In the first topology, nodes of the input layer in the previous step are fed back to nodes of the input layer in the next step. In the second topology, nodes of the hidden layer in the previous step are fed back to nodes of the input layer in the next step. In the third topology, nodes of the output layer in the previous step are fed back to nodes of the input layer in the next step. We ran experiments to compare these four types of networks (one-feed-forward and three recurrent networks.) The data used in the experiments are hand-written Arabic numerals (0-9), each of which contains 10,000 examples. First, we selected one type of recurrent neural networks with the best parameter set that provided the best performance among the three topologies of the recurrent neural networks, and also determined a feed-forward neural network with the best parameter set. Next, the selected recurrent neural network and the feed-forward neural network were thoroughly compared by using 5-fold cross validation. The experimental results show that the feed-forward neural network provides is more accurate than the recurrent neural network.en_US
dc.language.isothen_US
dc.publisherจุฬาลงกรณ์มหาวิทยาลัยen_US
dc.relation.urihttp://doi.org/10.14457/CU.the.2006.1412-
dc.rightsจุฬาลงกรณ์มหาวิทยาลัยen_US
dc.subjectโปรแกรมคอมพิวเตอร์ -- การทดสอบen_US
dc.subjectนิวรัลเน็ตเวิร์ค (วิทยาการคอมพิวเตอร์)en_US
dc.subjectการรู้จำอักขระ (คอมพิวเตอร์)en_US
dc.subjectตัวเลขen_US
dc.subjectComputer programs -- Testingen_US
dc.subjectNeural networks (Computer science)en_US
dc.subjectCharacter recognition
dc.subjectNumerals
dc.titleการเปรียบเทียบนิวรอลเน็ตเวิร์กแบบป้อนไปข้างหน้าและแบบบวกกลับในการรู้จำตัวเลขลายมือเขียนen_US
dc.title.alternativeComparison of feed-forward and redurrent neural networks in hand-written digit recognitionen_US
dc.typeThesisen_US
dc.degree.nameวิทยาศาสตรมหาบัณฑิตen_US
dc.degree.levelปริญญาโทen_US
dc.degree.disciplineวิทยาศาสตร์คอมพิวเตอร์en_US
dc.degree.grantorจุฬาลงกรณ์มหาวิทยาลัยen_US
dc.email.advisorBoonserm.K@chula.ac.th
dc.identifier.DOI10.14457/CU.the.2006.1412-
Appears in Collections:Eng - Theses

Files in This Item:
File Description SizeFormat 
sompong_se_front.pdf250.82 kBAdobe PDFView/Open
sompong_se_ch1.pdf170.12 kBAdobe PDFView/Open
sompong_se_ch2.pdf292.54 kBAdobe PDFView/Open
sompong_se_ch3.pdf195.81 kBAdobe PDFView/Open
sompong_se_ch4.pdf274.73 kBAdobe PDFView/Open
sompong_se_ch5.pdf154.71 kBAdobe PDFView/Open
sompong_se_back.pdf1.46 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.