Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/5818
Title: การตัดเล็มอย่างอ่อนสำหรับต้นไม้ตัดสินใจโดยการใช้แบ็กพรอพาเกชันนิวรอลเน็ตเวิร์ก
Other Titles: Soft pruning for decision tree using the backpropagation neural network
Authors: ก้องศักดิ์ จงเกษมวงศ์
Advisors: บุญเสริม กิจศิริกุล
Other author: จุฬาลงกรณ์มหาวิทยาลัย. คณะวิศวกรรมศาสตร์
Advisor's Email: Boonserm.k@chula.ac.th, boonserm@cp.eng.chula.ac.th
Subjects: การเรียนรู้ของเครื่อง
แบคพรอพาเกชัน (ปัญญาประดิษฐ์)
นิวรัลเน็ตเวิร์ค (คอมพิวเตอร์)
ต้นไม้ตัดสินใจ
Issue Date: 2543
Publisher: จุฬาลงกรณ์มหาวิทยลัย
Abstract: การเรียนรู้ต้นไม้ตัดสินใจเป็นเทคนิคการเรียนรู้ของเครื่องวิธีการหนึ่งที่ใช้กันอย่างแพร่หลายในปัจจุบัน เมื่อสร้างต้นไม้ตัดสินใจจากข้อมูลสอน โดยเฉพาะข้อมูลที่มีสัญญาณรบกวนนั้น ต้นไม้ตัดสินใจที่ได้อาจอิงกับข้อมูลมากเกินไป ทำให้ต้นไม้ตัดสินใจที่ได้มีขนาดใหญ่มาก และอาจใช้งานได้ไม่ดีกับข้อมูลใหม่ในอนาคต เทคนิคทั่วไปสำหรับแก้ไขการอิงกับข้อมูลมากไป ก็คือ การตัดเล็มต้นไม้ตัดสินใจ วิธีการต่างๆ สำหรับการตัดเล็มต้นไม้ตัดสินใจได้ถูกนำเสนอ ทุกวิธีการจะทำโดยการตัดโนดบางโนดออกจากต้นไม้เพื่อลดขนาดของต้นไม้ แต่ในบางครั้งโนดที่ตัดไปนั้นอาจมีความสำคัญอยู่ หรืออาจจะมีประโยชน์ในการแยกแยะข้อมูลในอนาคต งานวิจัยนี้ได้เสนอวิธีการใหม่ ที่ให้น้ำหนักแก่โนดตามความสำคัญของโนดนั้นๆ เรียกวิธีการนี้ว่าการตัดเล็มอย่างอ่อน ระดับความสำคัญหรือน้ำหนักของโนดหนึ่งๆ จะได้มาจากแบ็กพรอพาเกชันนิวรอลเน็ตเวิร์ก ผลการทดลองกับข้อมูลทั้งหมด 20 ชุดข้อมูล เพื่อเปรียบเทียบวิธีการที่นำเสนอกับต้นไม้ตัดสินใจที่ไม่ได้ทำการตัดเล็ม และต้นไม้ตัดสินใจที่ทำการตัดเล็ม สรุปได้ว่าผลของงานวิจัยนี้ให้ประสิทธิภาพที่ดีที่สุด
Other Abstract: Decision tree learning is a machine teachnique that is in widespread use nowadays. When we construct a decision tree from some data, especially noisy data, the obtained tree may overfit the data and may be very large. This result makes the tree not perform well on new data. The commonly used technique for preventing the overfitting is to prune the decision trees. Many methods for decision tree pruning have been proposed, and all of them remove some nodes from the tree to reduce its size. However, some removed nodes may have a significance level or some contribution in classifying new data. Instead of absolutely removing nodes, this thesis presents a new method that gives weights to nodes according to their significance. We call this method "soft pruning". The significance level or the weight of a node is determined by a backpropagation neural network. We run experiments on twenty domains to compare our method with error-based pruning that is one of the most effective method for free pruning. The results demonstrate that our method outperforms error-based pruning.
Description: วิทยานิพนธ์ (วท.ม.)--จุฬาลงกรณ์มหาวิทยลัย, 2543
Degree Name: วิทยาศาสตรมหาบัณฑิต
Degree Level: ปริญญาโท
Degree Discipline: วิทยาศาสตร์คอมพิวเตอร์
URI: http://cuir.car.chula.ac.th/handle/123456789/5818
ISBN: 9741300808
Type: Thesis
Appears in Collections:Eng - Theses

Files in This Item:
File Description SizeFormat 
Kongsak.pdf737.47 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.