Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/77071
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorPrabhas Chongstitvatana-
dc.contributor.authorTongjai Yampaka-
dc.contributor.otherChulalongkorn University. Faculty of Engineering-
dc.date.accessioned2021-09-22T23:25:34Z-
dc.date.available2021-09-22T23:25:34Z-
dc.date.issued2020-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/77071-
dc.descriptionThesis (Ph.D.)--Chulalongkorn University, 2020-
dc.description.abstractIn recent years, a great many approaches for learning from multiple sources by considering the diversity of different views have been proposed. The most interesting field is medical diagnosis. For example, breast cancer screening normally employs two views of mammography (Cranio-Caudal and Medio-Lateral-Oblique) or two modes of ultrasound (B-mode and Doppler mode) breast images. This study proposes a multi-evidence learning model that combines the multiple evidences of breast images to improve diagnosis. Two views mammography and two modes of ultrasound were used. Our proposed model consists of four stages. First, feature extraction using Convolutional Neuron Networks was operated to extract the image features on each view separately. Second, feature selection by exploring the mutual information between the feature and the class label was used to select the informative features. Third, canonical correlation analysis was explored to merge two feature sets into one final layer. Finally, the classification of malignant or benign was performed using a support vector machine. The experiment results indicated that the proposed method increases the classification performance. In addition, not only high accuracy but also the maximal correlation has been achieved with combined views.-
dc.description.abstractalternativeในช่วงไม่กี่ปีที่ผ่านมามีการสร้างโมเดลการเรียนรู้จากชุดข้อมูลหลายแหล่งโดยพิจารณาจากความหลากหลายของชุดข้อมูลที่นํามาประกอบเป็นหลักฐาน งานวิจัยที่พยายามใช้ชุดข้อมูลที่หลากหลายเพื่อช่วยปรับปรุงให้โมเดลมีความแม่นยํามากขึ้น การวินิจฉัยทางการแพทย์ก็ใช้ชุดข้อมูลจากหลายหลักฐานมาช่วยในการสร้างโมเดลเพื่อช่วยในการวินิจฉัยโรค ตัวอย่างเช่นการตรวจคัดกรองมะเร็งเต้านม  โดยปกติการแปลผลของนักรังสีวิทยาจะใช้ภาพถ่ายรังสีเต้านมสองมุมมอง (Cranio-Caudal และ Medio-Lateral-Oblique) หรือภาพถ่ายเต้านมด้วยคลื่นความถี่สูงสองโหมด (B-mode และ Doppler mode) ใช้ในการวินิจฉัยว่าผู้ป่วยมีโอกาสเป็นมะเร็งเต้านมหรือไม่ งานวิจัยนี้มุ่งเน้นการสร้างโมเดลการเรียนรู้จากหลายหลักฐานสําหรับวินิจฉัยทางการแพทย์โดยใช้การวินิจฉัยมะเร็งเต้านมเป็นกรณีศึกษา โดยใช้ภาพถ่ายรังสีเต้านม (Mammography image) และภาพถ่ายเต้านมด้วยคลื่นความถี่สูง (Ultrasonography image) วิธีที่เราเสนอประกอบด้วยสี่ขั้นตอนดังนี้1) สกัดคุณสมบัติจากภาพโดยใช้โครงข่ายประสาทเทียมแบบสังวัตนาการ (Convolutional Neural Networks) 2) เลือกคุณสมบัติที่เหมาะสมโดยพิจารณาจาก สารสนเทศร่วม (Mutual information) ที่ขึ้นต่อกันระหว่างคุณสมบัติกับคลาสเป้าหมาย 3) รวมชุดหลักฐานโดยใช้การวิเคราะห์สหสัมพันธ์คาโนนิคอล และ 4) สร้างโมเดลเพื่อจําแนกประเภทโดยใช้ซัพพอร์ตเวกเตอร์แมชชิน (Support Vector Machine) เป็นตัวจําแนกเชิงเส้น เป้าหมายเพื่อวินิจฉัยว่าเป็นก้อนเนื้อมะเร็งหรือไม่ใช่มะเร็ง ผลการทดลองระบุว่าการเรียนรู้หลายหลักฐานโดยใช้สารสนเทศร่วมกับการวิเคราะห์สหสัมพันธ์คาโนนิคอล มีแนวโน้มที่จะเพิ่มประสิทธิภาพการจําแนกประเภท นอกจากนี้ไม่เพียงแต่มีความแม่นยําสูงเท่านั้น แต่ข้อมูลหลักฐานที่นํามารวมกันยังมีความสัมพันธ์สูงสุดอีกด้วย-
dc.language.isoen-
dc.publisherChulalongkorn University-
dc.relation.urihttp://doi.org/10.58837/CHULA.THE.2020.128-
dc.rightsChulalongkorn University-
dc.subject.classificationComputer Science-
dc.titleMulti-evidence learning for medical diagnosis-
dc.title.alternativeการเรียนรู้หลายหลักฐานสำหรับการวินิจฉัยทางการแพทย์-
dc.typeThesis-
dc.degree.nameDoctor of Philosophy-
dc.degree.levelDoctoral Degree-
dc.degree.disciplineComputer Engineering-
dc.degree.grantorChulalongkorn University-
dc.identifier.DOI10.58837/CHULA.THE.2020.128-
Appears in Collections:Eng - Theses

Files in This Item:
File Description SizeFormat 
5871448321.pdf2.25 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.