Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/81689
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Seksan Kiatsupaibul | - |
dc.contributor.author | Kantapong Visantavarakul | - |
dc.contributor.other | Chulalongkorn University. Faculty of Commerce and Accountancy | - |
dc.date.accessioned | 2023-02-03T04:31:30Z | - |
dc.date.available | 2023-02-03T04:31:30Z | - |
dc.date.issued | 2022 | - |
dc.identifier.uri | http://cuir.car.chula.ac.th/handle/123456789/81689 | - |
dc.description | Thesis (M.Sc.)--Chulalongkorn University, 2022 | - |
dc.description.abstract | This study applies reinforcement learning to credit scoring by using the logistic bandit framework. The credit scoring and the credit underwriting are modeled into a single sequential decision problem where the credit underwriter takes a sequence of actions over an indefinite number of time steps. The traditional credit scoring approach considers the model construction separately from the underwriting process. This approach is identified as a greedy algorithm in the reinforcement learning literature, which is commonly believed to be inferior to an efficient reinforcement learning approach such as Thompson sampling. This is true under the simple setting, i.e., granting credit to a single borrower per action while the pool of the borrowers is fixed. However, under the more realistic scenario where these two conditions are relaxed, the greedy approach can outperform Thompson sampling since the greedy algorithm does not commit too early to an inferior action as it does in the simple setting. Still, the efficient exploration feature of Thompson sampling is beneficial. When the borrower characteristics are captured by a large number of features, the exploration mechanism enables Thompson sampling to outperform the greedy algorithm. The results from the simulation study permit a deeper understanding of the reinforcement learning approaches towards the logistic bandits, especially in the setting of credit scoring and credit underwriting processes. | - |
dc.description.abstractalternative | งานวิจัยนี้มีวัตถุประสงค์เพื่อประยุกต์ใช้การเรียนรู้แบบเสริมกำลังสำหรับการให้คะแนนเครดิตภายใต้กรอบปัญหาโลจิสติกแบนดิต การให้คะแนนเครดิตและการให้สินเชื่อสามารถจัดอยู่ในรูปแบบปัญหาการตัดสินใจอย่างเป็นลำดับโดยผู้ให้สินเชื่อจะตัดสินใจเลือกการกระทำโดยที่จุดสิ้นสุดของเวลานั้นไม่มีกำหนด วิธีการให้คะแนนเครดิตแบบดั้งเดิมพิจารณาการสร้างโมเดลแยกออกจากการให้สินเชื่อ ในการเรียนรู้แบบเสริมกำลัง วิธีนี้เรียกว่า ขั้นตอนวิธีแบบละโมบ (greedy algorithm) ซึ่งเชื่อกันอย่างแพร่หลายว่าให้ประสิทธิภาพที่ด้อยกว่าการเรียนรู้แบบเสริมกำลังที่มีประสิทธิภาพ เช่น การสุ่มตัวอย่างแบบทอมสัน (Thompson sampling) สมมติฐานนี้เป็นจริงในสถานการณ์แบบง่าย นั่นคือ ในแต่ละช่วงเวลาผู้ให้กู้จะให้สินเชื่อได้แค่คนเดียวในขณะที่ผู้กู้สินเชื่อยังเป็นรายเดิมอยู่ตลอด อย่างไรก็ตาม ในสถานการณ์ที่สมจริงมากขึ้น นั่นคือ ไม่มีเงื่อนไขทั้งสองข้อดังกล่าว ขั้นตอนวิธีแบบละโมบสามารถให้ประสิทธิภาพที่ดีกว่าการสุ่มตัวอย่างแบบทอมสัน เนื่องจาก ขั้นตอนวิธีแบบละโมบไม่ได้ยึดติดเร็วเกินไปกับการกระทำที่ให้ผลตอบแทนที่ด้อยกว่าซึ่งไม่เหมือนกับในสถานการณ์แบบง่าย ถึงแม้จะเป็นเช่นนั้น การสำรวจแบบมีประสิทธิภาพของการสุ่มตัวอย่างแบบทอมสันก็ยังมีประโยชน์ในการเรียนรู้ภายใต้สถานการณ์นี้ ในกรณีที่จำนวนตัวแปรที่อธิบายลักษณะของผู้ขอกู้สินเชื่อมีจำนวนมาก การสุ่มตัวอย่างแบบทอมสันสามารถให้ผลลัพธ์ที่ดีกว่าขั้นตอนวิธีแบบละโมบ ผลลัพธ์ที่ได้จากการศึกษานี้คาดว่าจะเป็นประโยชน์ในการทำความเข้าใจการเรียนรู้แบบเสริมกำลังภายใต้กรอบปัญหาโลจิสติกแบนดิตได้ดียิ่งขึ้น โดยเฉพาะในกระบวนการให้คะแนนเครดิตและการให้สินเชื่อ | - |
dc.language.iso | en | - |
dc.publisher | Chulalongkorn University | - |
dc.relation.uri | http://doi.org/10.58837/CHULA.THE.2022.339 | - |
dc.rights | Chulalongkorn University | - |
dc.subject | Logistic regression analysis | - |
dc.subject | Credit ratings | - |
dc.subject | Sampling | - |
dc.subject | การวิเคราะห์การถดถอยโลจิสติก | - |
dc.subject | การจัดอันดับสินเชื่อ | - |
dc.subject | การสุ่มตัวอย่าง | - |
dc.subject.classification | Mathematics | - |
dc.title | An application of reinforcement learning to credit scoring based on the logistic Bandit framework | - |
dc.title.alternative | การประยุกต์ใช้การเรียนรู้แบบเสริมกำลังสำหรับการให้คะแนนเครดิตภายใต้กรอบปัญหาโลจิสติกแบนดิต | - |
dc.type | Thesis | - |
dc.degree.name | Master of Science | - |
dc.degree.level | Master's Degree | - |
dc.degree.discipline | Statistics | - |
dc.degree.grantor | Chulalongkorn University | - |
dc.identifier.DOI | 10.58837/CHULA.THE.2022.339 | - |
Appears in Collections: | Acctn - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
6480388626.pdf | 4.69 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.