Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/23497
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Chidchanok Lursinsap | - |
dc.contributor.advisor | Suphakant Phimoltares | - |
dc.contributor.author | Saichon Jaiyen | - |
dc.contributor.other | Chulalongkorn University. Faculty of Science | - |
dc.date.accessioned | 2012-11-09T02:53:23Z | - |
dc.date.available | 2012-11-09T02:53:23Z | - |
dc.date.issued | 2011 | - |
dc.identifier.uri | http://cuir.car.chula.ac.th/handle/123456789/23497 | - |
dc.description | Thesis (Ph.D.)--Chulalongkorn University, 2011 | en |
dc.description.abstract | This research proposes a very fast 1-pass-throw-away learning algorithm based on a hyper-ellipsoidal function that can be translated and rotated to cover the data set during learning process. The translation and rotation of hyper-ellipsoidal function depends upon the distribution of the data set. In addition, the versatile elliptic basis function (VEBF) neural network with one hidden layer is proposed. The hidden layer of the proposed neural network is adaptively divided into subhidden layers according to the number of classes of the training data set. Each subhidden layer can be scaled by incrementing a new node to learn new samples during training process. The learning time is O(n), where n is the number of data. The network can independently learn any new incoming datum without involving the previously learned data. Therefore, there is no need to store all previous data in order to mix with the new incoming data during the learning process. | en |
dc.description.abstractalternative | งานวิจัยนี้นำเสนออัลกอริทึมการเรียนรู้แบบเร็วมากที่เรียนรู้ข้อมูลใหม่เพียงครั้งเดียวแล้วทิ้งข้อมูลนั้นโดยไม่ต้องใช้ข้อมูลเก่าที่เรียนรู้ไปแล้วด้วยการใช้ฟังก์ชันไฮเพอร์อัลลิปซอยด์ ฟังก์ชันชนิดนี้มีรูปทรงเป็นวงรีและสามารถเรียนรู้ข้อมูลหลายมิติได้โดยการล้อมข้อมูลที่เข้ามาตามการกระจายตัวของข้อมูล นอกจากนี้งานวิจัยนี้ยังเสนอโครงข่ายประสาทเทียมที่ใช้ฟังก์ชัน อัลลิปซอยด์เป็นฟังก์ชันในการเรียนรู้ โครงข่ายประสาทเทียมชนิดนี้มีชั้นซ่อนเพียงแค่ชั้นเดียวซึ่งจะถูกแบ่งเป็นชั้นซ่อนย่อยตามจำนวนกลุ่มของข้อมูลและจำนวนเซลล์ประสาทเทียมในชั้นซ่อนย่อยสามารถเพิ่มขึ้นได้ในระหว่างการเรียนรู้ โครงข่ายประสาทเทียมชนิดนี้สามารถเรียนรู้ข้อมูลได้โดยใช้เวลา O(n) เมื่อ n คือจำนวนข้อมูลสำหรับเรียนรู้ โครงข่ายประสาทเทียมชนิดนี้สามารถเรียนรู้ข้อมูลที่เข้ามาใหม่โดยไม่ต้องใช้ข้อมูลเก่าที่เรียนรู้ไปแล้ว ดังนั้นจึงไม่มีความจำเป็นที่จะต้องเก็บข้อมูลเก่าไว้เพื่อเรียนรู้ข้อมูลใหม่ | en |
dc.format.extent | 1167434 bytes | - |
dc.format.mimetype | application/pdf | - |
dc.language.iso | en | es |
dc.publisher | Chulalongkorn University | en |
dc.relation.uri | http://doi.org/10.14457/CU.the.2011.1690 | - |
dc.rights | Chulalongkorn University | en |
dc.subject | Algorithms | en |
dc.subject | Learning | en |
dc.subject | Artificial intelligence | en |
dc.subject | Neural networks (Computer science) | en |
dc.title | A very fast incremental neural learning for classification using only new incoming datum and hyper-ellipsoidal function | en |
dc.title.alternative | การเรียนรู้เพิ่มเติมแบบเร็วมากของเซลล์ประสาทเทียมสำหรับการแบ่งกลุ่มข้อมูลโดยใช้เพียงข้อมูลที่เข้ามาใหม่และฟังก์ชันไฮเพอร์อัลลิปซอยด์ | en |
dc.type | Thesis | es |
dc.degree.name | Doctor of Philosophy | es |
dc.degree.level | Doctoral Degree | es |
dc.degree.discipline | Computer Science | es |
dc.degree.grantor | Chulalongkorn University | en |
dc.email.advisor | lchidcha@chula.ac.th | - |
dc.email.advisor | suphakant.p@chula.ac.th | - |
dc.identifier.DOI | 10.14457/CU.the.2011.1690 | - |
Appears in Collections: | Sci - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
saichon_ja.pdf | 1.14 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.