Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/81560
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Supavadee Aramvith | - |
dc.contributor.author | Talha Saleem | - |
dc.contributor.other | Chulalongkorn University. Faculty of Engineering | - |
dc.date.accessioned | 2023-02-03T04:00:53Z | - |
dc.date.available | 2023-02-03T04:00:53Z | - |
dc.date.issued | 2022 | - |
dc.identifier.uri | http://cuir.car.chula.ac.th/handle/123456789/81560 | - |
dc.description | Thesis (M.Eng.)--Chulalongkorn University, 2022 | - |
dc.description.abstract | In the video application, slow motion is visually attractive and gets more attention in video super resolution. To generate the high-resolution (HR) slow motion video frames from the low-resolution (LR) frames, two sub-tasks are required, including video super-resolution (VSR) and video frame interpolation (VFI). However, the interpolation approach is not successful to extract low level feature attention to get the maximum advantage from the property of space-time relation. To this extent, we propose a deep consecutive attention network-based method. The multi-head attention and an attentive temporal feature module are designed to achieve better prediction of interpolation feature frame. Bi-directional deformable ConvLSTM module aggregates and aligns with the information from the multi-head attention and temporal feature block to improve the quality of video frames. This method synthesizes the HR video frames from LR video frames. The experimental results in terms of PSNR show the proposed method of deep consecutive attention outperforms 0.27 dB and 0.31 dB for Vid4 and SPMC datasets respectively, in average of PSNR compared to state-of-the-art baseline method. | - |
dc.description.abstractalternative | งานด้านวีดิทัศน์ กระบวนการแสดงการเคลื่อนไหวช้าได้รับความสนใจมากในการสร้างวีดิทัศน์ความละเอียดสูงยวดยิ่ง กระบวนการสร้างวีดิทัศน์ความละเอียดสูงเคลื่อนไหวช้าจากเฟรมที่มีความละเอียดต่ำนี้ แบ่งออกเป็น 2 ส่วน ประกอบไปด้วยการสร้างวีดิทัศน์ความละเอียดสูงยวดยิ่งและการประมาณค่าเฟรมวีดิทัศน์ อย่างไรก็ดี แนวทางการประมาณค่าดังกล่าวนั้นไม่ประสบผลสำเร็จในการสกัดคุณลักษณะที่สนใจระดับต่ำ เพื่อให้ได้รับประโยชน์สูงสุดจากคุณสมบัติของความสัมพันธ์ของปริภูมิเชิงเวลา ในการแก้ไขปัญหาดังกล่าว เรานำเสนอวิธีการภายใต้การใช้โครงข่ายแบบเน้นความสนใจต่อเนื่องเชิงลึกสำหรับวีดิทัศน์ความละเอียดสูงยวดยิ่ง จากการใช้กลไกเน้นความสนใจหลายหัวและโมดูลเน้นความสนใจของคุณลักษณะเชิงเวลา เพื่อให้การคาดเดาการประมาณค่าคุณลักษณะเฟรมได้ดีขึ้น โมดูลคอนแอลเอสดีเอ็ม (ConvLSTM) ที่เปลี่ยนรูปได้แบบสองทิศทาง และจัดกับข้อมูลจากกลไกเน้นความสนใจหลายหัวและกลุ่มคุณลักษณะเชิงเวลาเพื่อเพิ่มคุณภาพของเฟรมวีดิทัศน์ วิธีการนี้สังเคราะห์เฟรมวีดิทัศน์ที่มีความละเอียดสูงขึ้นมาจากเฟรมวีดิทัศน์ที่มีความละเอียดต่ำ ผลการทดลองแสดงให้เห็นว่าวิธีการโครงข่ายแบบเน้นความสนใจต่อเนื่องเชิงลึกที่นำเสนอมีประสิทธิภาพในเชิงค่าพีเอสเอ็นอาร์สูงกว่า 0.27 เดซิเบลและ 0.31 เดซิเบลโดยเฉลี่ยสำหรับชุดข้อมูลทดสอบ Vid4 และ SPMC ตามลำดับ เมื่อเปรียบเทียบกับวิธีการทันสมัยที่เป็นพื้นฐานในปัจจุบัน | - |
dc.language.iso | en | - |
dc.publisher | Chulalongkorn University | - |
dc.relation.uri | http://doi.org/10.58837/CHULA.THE.2022.134 | - |
dc.rights | Chulalongkorn University | - |
dc.subject.classification | Engineering | - |
dc.title | Deep consecutive attention network for video super-resolution | - |
dc.title.alternative | โครงข่ายแบบเน้นความสนใจต่อเนื่องเชิงลึกสำหรับวีดิทัศน์ความละเอียดสูงยวดยิ่ง | - |
dc.type | Thesis | - |
dc.degree.name | Master of Engineering | - |
dc.degree.level | Master's Degree | - |
dc.degree.discipline | Electrical Engineering | - |
dc.degree.grantor | Chulalongkorn University | - |
dc.identifier.DOI | 10.58837/CHULA.THE.2022.134 | - |
Appears in Collections: | Eng - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
6370396521.pdf | 4.83 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.