Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/74226
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorเจษฎา ชินรุ่งเรือง-
dc.contributor.authorณัฐวุฒิ สุขเจริญนุกูล-
dc.contributor.otherจุฬาลงกรณ์มหาวิทยาลัย. บัณฑิตวิทยาลัย-
dc.date.accessioned2021-06-30T08:05:31Z-
dc.date.available2021-06-30T08:05:31Z-
dc.date.issued2540-
dc.identifier.isbn9746389823-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/74226-
dc.descriptionวิทยานิพนธ์ (วศ.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2540en_US
dc.description.abstractการปรับพารามิเตอร์ของข่ายงานระบบประสาทโดยทั่วไป อาศัยหลักการของการลดระดับตามแนวเกร เดียนต์ (steepest descent) ความเร็วและความถูกต้องในการปรับพารามิเตอร์จะขึ้นกับค่าพารามิเตอร์ที่เรียกว่า อัตรา การเรียนรู้ ซึ่งปกติถูกกำหนดให้เป็นค่าคงตัว อัตราการเรียนรู้แบบค่าคงตัวมีผลเสียในแงที่ว่า การหาค่าเหมาะสมทำได้ ยาก นอกจากนี้ ในกรณีการประยุกต์ใช้งานแบบเชื่อมตรง การปรับพารามิเตอร์ของข่ายงานระบบประสาทด้วยอัตราการเรียนรู้คงตัวไม่สามารถให้ความเร็วและความถูกต้องของค่าเหมาะสมที่สุดได้พร้อมกัน เพื่อหลีกเลี่ยงปัญหาดังกล่าว ได้มีผู้เสนอวิธีการปรับอัตราการเรียนรู้โดยให้มีค่าเปลี่ยนไปตามเวลาและสภาพของปัญหาในขณะนั้น ๆ วิทยานิพนธ์ฉบับนี้มีวัตถุประสงค์เพื่อรวบรวมวิธีการปรับอัตราการเรียนรู้แบบต่าง ๆ พร้อมทั้งทดสอบการใช้งานในแบบเชื่อมตรง การ ทดสอบปัญหาแรกเป็นปัญหาการประมาณฟังก์ชั่นเชิงเส้นที่เปลี่ยนและไม่เปลี่ยนแปลงตามเวลา ปัญหาการทดสอบที่ สองเป็นการชดเชยช่องสัญญาณในงานสื่อสารเชิงเลข ผลที่ได้แสดงให้เห็นว่า การปรับอัตราการเรียนรู้แบบพลวัตช่วยให้ ข่ายงานระบบประสาทปรับตัวได้เร็วและให้ความถูกต้องของจุดเหมาะสมที่สุดได้ดีกว่าการใช้อัตราการเรียนรู้แบบค่าคง ตัว ข้อมูลจากการทดสอบสามารถใช้เป็นแนวทางสำหรับการปรับปรุงวิธีเพื่อการประยุกต์ใช้งานเฉพาะด้าน หรือค้นหา หลักเกณฑ์ในการคัดเลือกวิธีที่เหมาะสม-
dc.description.abstractalternativeMost learning algorithms of neural networks are implemented based on the method of steepest descent. The performance of these algorithms depend strongly on a parameter called the learning rate. For a constant learning rate, there is a trade-off between convergence speed and adaptation accuracy. When the learning rate is large, the algorithm converges rapidly but with low accuracy. Conversely, when the learning rate is small, the algorithm converges with high accuracy but low speed. In order to avoid this trade-off, several reseachers had proposed adaptation techniques where their learning rates vary dynamically with time. The objective of this thesis is to summarize methods for dynamically adapting the learning rates and compare their performances on two standard problem sets. The first is the problem of approximating both stationary and nonstationary linear functions. The second is a channel equalization in a digital communication system. The results obtained indicate that the dynamic adjustments of learning rates improve the rate of convergence and adaptation accuracy compared with those of constant learning rates. The insight gained from this thesis can be used as the guideline for selecting and improving an algorithm for a given application.-
dc.language.isothen_US
dc.publisherจุฬาลงกรณ์มหาวิทยาลัยen_US
dc.relation.urihttp://doi.org/10.14457/CU.the.1997.336-
dc.rightsจุฬาลงกรณ์มหาวิทยาลัยen_US
dc.subjectนิวรัลเน็ตเวิร์ค (วิทยาการคอมพิวเตอร์)en_US
dc.subjectพลศาสตร์en_US
dc.subjectNeural networks (Computer science)en_US
dc.subjectDynamicsen_US
dc.titleการปรับอัตราการเรียนรู้แบบพลวัตในข่ายงานระบบประสาทen_US
dc.title.alternativeDynamic adjustments of learning rates of neural networksen_US
dc.typeThesisen_US
dc.degree.nameวิศวกรรมศาสตรมหาบัณฑิตen_US
dc.degree.levelปริญญาโทen_US
dc.degree.disciplineวิศวกรรมไฟฟ้าen_US
dc.degree.grantorจุฬาลงกรณ์มหาวิทยาลัยen_US
dc.email.advisorChedsada.C@chula.ac.th-
dc.identifier.DOI10.14457/CU.the.1997.336-
Appears in Collections:Grad - Theses

Files in This Item:
File Description SizeFormat 
Nutthawut_su_front_p.pdfหน้าปก และบทคัดย่อ1.14 MBAdobe PDFView/Open
Nutthawut_su_ch1_p.pdfบทที่ 1832.5 kBAdobe PDFView/Open
Nutthawut_su_ch2_p.pdfบทที่ 21.77 MBAdobe PDFView/Open
Nutthawut_su_ch3_p.pdfบทที่ 31.37 MBAdobe PDFView/Open
Nutthawut_su_ch4_p.pdfบทที่ 42.02 MBAdobe PDFView/Open
Nutthawut_su_ch5_p.pdfบทที่ 51.93 MBAdobe PDFView/Open
Nutthawut_su_ch6_p.pdfบทที่ 6803.06 kBAdobe PDFView/Open
Nutthawut_su_back_p.pdfบรรณานุกรม และภาคผนวก684.13 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.