Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/80506
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Peerapon Vateekul | - |
dc.contributor.advisor | Boonserm Kijsirikul | - |
dc.contributor.author | Kasidis Kanwatchara | - |
dc.contributor.other | Chulalongkorn University. Faculty of Engineering | - |
dc.date.accessioned | 2022-09-15T08:54:39Z | - |
dc.date.available | 2022-09-15T08:54:39Z | - |
dc.date.issued | 2021 | - |
dc.identifier.uri | http://cuir.car.chula.ac.th/handle/123456789/80506 | - |
dc.description | Thesis (M.Eng.)--Chulalongkorn University, 2021 | en_US |
dc.description.abstract | Lifelong learning (LL) is a machine learning paradigm in which a learner is sequentially trained on a stream of new tasks while preventing learned knowledge from being forgotten. To achieve lifelong language learning, pseudo-rehearsal methods leverage samples generated from a language model to refresh the knowledge of previously learned tasks. Without proper controls, however, these methods could fail to retain the knowledge of complex tasks with longer texts since most of the generated samples are low in quality. To overcome the problem, we propose three specific contributions. First, we utilize double language models, each of which specializes on a specific part of input, to logically produce high-quality pseudo samples. Second, we reduce the number of parameters used by applying adapter modules to enhance training efficiency. Third, we further improve the overall quality of pseudo samples by exploiting the rational structure of the input using temporal ensembling and sample regeneration. The results show that our framework achieves significant improvement over baselines on multiple task sequences. Also, our pseudo sample analysis reveals helpful insights for designing even better pseudo-rehearsal methods in the future. | en_US |
dc.description.abstractalternative | การเรียนรู้ตลอดชีวิตคือวิธีการหนึ่งในการเรียนรู้ของเครื่องซึ่งผู้เรียนจะทำการเรียนอย่างค่อยเป็นค่อยไปบน งานที่เข้ามาเรื่อย ๆ ในขณะที่ป้องกันการลืมของความรู้ที่เรียนมา เพื่อบรรลุการเรียนรู้ตลอดชีวิต วิธีการทบทวน ตัวอย่างเทียมใช้งานตัวอย่างที่ถูกสร้างจากโมเดลภาษาเพื่อทำการทบทวนความรู้ที่เรียนมาก่อนหน้า แต่ถ้าหาก ไม่มีการควบคุม วิธีดังกล่าวอาจจะไม่สามารถป้องกันการลืมบนงานที่มีความซับซ้อนและความยาวมาก เนื่องจาก ตัวอย่างที่ถูกสร้างขึ้นมาจะมีคุณภาพต่ำ เพื่อแก้ปัญหาดังกล่าว งานวิจัยนี้จึงเสนอผลงานสามอย่างด้วยกัน หนึ่ง งานวิจัยนี้ใช้โมเดลภาษาสองตัว ซึ่งแต่ละตัวจะชำนาญในแต่ละส่วนของอินพุต เพื่อสร้างตัวอย่างเทียมที่มีคุณ- ภาพอย่างสมเหตุสมผล สอง งานวิจัยนี้ใช้อะแดปเตอร์โมดูล (Adapter module) เพื่อลดปริมาณพารามิเตอร์ และเพิ่มความเร็วในการฝึกฝน สาม งานวิจัยนี้เพิ่มคุณภาพของตัวอย่างเทียมโดยการใช้โครงสร้างของอินพุต อย่างเป็นเหตุเป็นผล โดยใช้วิธีการประกอบข้ามการเวลาและการสร้างตัวอย่างเทียมซ้ำ ผลลัพธ์ของการทดลอง แสดงให้เห็นว่าโครงที่งานวิจัยนี้เสนอ สามารถบรรลุประสิทธิภาพที่สูงกว่าพื้นฐานอย่างมากบนหลายลำดับ งาน นอกจากนี้ งานวิจัยนี้ยังเผยข้อมูลเชิงลึกที่มีประโยชน์ต่อการสร้างวิธีการทบทวนตัวอย่างเทียมที่มีประ สิทธิภาพสูงยิ่งกว่าในอนาคตได้ | en_US |
dc.language.iso | en | en_US |
dc.publisher | Chulalongkorn University | en_US |
dc.relation.uri | http://doi.org/10.58837/CHULA.THE.2021.97 | - |
dc.rights | Chulalongkorn University | en_US |
dc.subject | Machine learning | - |
dc.subject | Neural networks (Computer sciences) | - |
dc.subject | การเรียนรู้ของเครื่อง | - |
dc.subject | นิวรัลเน็ตเวิร์ค (วิทยาการคอมพิวเตอร์) | - |
dc.title | A Rationale-based Lifelong Learning Framework with Pseudo-sample Replay Enhancement | en_US |
dc.type | Thesis | en_US |
dc.degree.name | Master of Engineering | en_US |
dc.degree.level | Master's Degree | en_US |
dc.degree.discipline | Computer Engineering | en_US |
dc.degree.grantor | Chulalongkorn University | en_US |
dc.identifier.DOI | 10.58837/CHULA.THE.2021.97 | - |
Appears in Collections: | Eng - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Eng_Kasidis Ka_The_2564.pdf | 37.71 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.