Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/43911
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | สุกรี สินธุภิญโญ | en_US |
dc.contributor.author | ต้า เกียรติไกรวัลศิริ | en_US |
dc.contributor.other | จุฬาลงกรณ์มหาวิทยาลัย. คณะวิศวกรรมศาสตร์ | en_US |
dc.date.accessioned | 2015-06-24T06:45:48Z | |
dc.date.available | 2015-06-24T06:45:48Z | |
dc.date.issued | 2556 | en_US |
dc.identifier.uri | http://cuir.car.chula.ac.th/handle/123456789/43911 | |
dc.description | วิทยานิพนธ์ (วท.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2556 | en_US |
dc.description.abstract | การสอนนิวรอลเน็ตเวิร์กด้วยชุดข้อมูลขนาดใหญ่จำเป็นต้องใช้เวลามาก และเทคนิคที่นิยมใช้ในลดเวลาในการสอนลงเช่นการลดขนาดชุดข้อมูลให้มีขนาดเล็กลงก่อนนำไปสอนนั้น ไม่สามารถรับประกันได้ว่านิวรอลเน็ตเวิร์กที่ได้รับการสอนนั้นจะมีประสิทธิภาพเท่ากับนิวรอลเน็ตเวิร์กที่สอนด้วยชุดข้อมูลขนาดใหญ่โดยตรงหรือไม่ ในการวิจัยนี้จะนำเสนอเทคนิคในการลดเวลาในการสอนนิวรอลเน็ตเวิร์กบนชุดข้อมูลขนาดใหญ่ลงด้วยการแบ่งชุดข้อมูลขนาดใหญ่ออกเป็นชุดข้อมูลขนาดเล็กหลายชุด จากนั้นนำชุดข้อมูลย่อยเหล่านั้นไปสอนนิวรอลเน็ตเวิร์กที่มีโครงสร้างคล้ายกันหลายโครงข่าย จากนั้นจึงนำองค์ความรู้ในนิวรอลเน็ตเวิร์กเหล่านั้นมารวมกันอีกครั้ง จากผลการทดลองแสดงให้เห็นว่าเทคนิคนี้สามารถลดเวลาที่ใช้ในการสอนนิวรอลเน็ตเวิร์กลงได้อย่างมาก โดยที่ประสิทธิภาพยังคงเทียบเท่ากับนิวรอลเน็ตเวิร์กที่สอนด้วยชุดข้อมูลขนาดใหญ่ทั้งชุด | en_US |
dc.description.abstractalternative | Training a neural network on large dataset needs a long training time. And a technique to reduce a training time by resampling dataset cannot guarantee a neural network’s performance. In this research, we propose a technique to reduce a training time using multiple networks. Our approach divides a large dataset into n subsets. We use those subsets to train multiple same-structure neural networks. Finally, we combine knowledge in multiple neural networks into one network. Results from experiments show that our technique can reduce a training time and preserve performance as a single network trained by the whole dataset. | en_US |
dc.language.iso | th | en_US |
dc.publisher | จุฬาลงกรณ์มหาวิทยาลัย | en_US |
dc.relation.uri | http://doi.org/10.14457/CU.the.2013.1358 | - |
dc.rights | จุฬาลงกรณ์มหาวิทยาลัย | en_US |
dc.subject | นิวรัลเน็ตเวิร์ค (วิทยาการคอมพิวเตอร์) | |
dc.subject | วิทยาการคอมพิวเตอร์ | |
dc.subject | Neural networks (Computer science) | |
dc.subject | Computer science | |
dc.title | การรวมโหนดในนิวรอลเน็ตเวิร์กหลายโครงข่ายบนชุดข้อมูลขนาดใหญ่ | en_US |
dc.title.alternative | COMBINING NODES IN MULTIPLE NEURAL NETWORKS ON LARGE DATASETS | en_US |
dc.type | Thesis | en_US |
dc.degree.name | วิทยาศาสตรมหาบัณฑิต | en_US |
dc.degree.level | ปริญญาโท | en_US |
dc.degree.discipline | วิทยาศาสตร์คอมพิวเตอร์ | en_US |
dc.degree.grantor | จุฬาลงกรณ์มหาวิทยาลัย | en_US |
dc.email.advisor | sukree@cp.eng.chula.ac.th | en_US |
dc.identifier.DOI | 10.14457/CU.the.2013.1358 | - |
Appears in Collections: | Eng - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
5570488021.pdf | 3.04 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.