Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/81543
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorPeerapon Vateekul-
dc.contributor.authorManassakan Sanayha-
dc.contributor.otherChulalongkorn University. Faculty of Engineering-
dc.date.accessioned2023-02-03T04:00:40Z-
dc.date.available2023-02-03T04:00:40Z-
dc.date.issued2022-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/81543-
dc.descriptionThesis (Ph.D.)--Chulalongkorn University, 2022-
dc.description.abstractThe deregulation and liberalization of the energy market in the 1990s prompted short-term electricity trading, allowing energy markets to produce net output over a range of time periods as a result of this decentralized system, most commonly minutes to days ahead of time. The energy industry urgently requires a system that has undergone substantial modernization in place to handle a variety of issues, including the current climate, renewable resources, and the energy framework. In this dissertation, we investigate a deep reinforcement learning framework for both wholesale and local energy trading, which probes the challenge of RL to optimize the real-world problem in the energy exchange. First, we introduce the MB-A3C algorithm for day-ahead energy bidding to reduce WPP’s costs. Also, we have illustrated that our model can generate a strategy that obtains a more than 15% reduction in average cost per day in Denmark and Sweden (Nord Pool dataset). Second, the MB-A3C3 approach is carried out and conducted on a large-scale, real-world, hourly 2012–2013 dataset of 300 households in Sydney, Australia. When internal trade (trading among houses) increased and external trade (trading to the grid) decreased, our multiple agent RL (MB-A3C3) significantly lowered energy bills by 17%. In closing the gap between real-world and theoretical problems, the algorithms herein aid in reducing wind power production costs and customers’ electricity bills.-
dc.description.abstractalternativeการยกเลิกกฎระเบียบและการเปิดเสรีของตลาดพลังงานในทศวรรษ 1990 ได้กระตุ้นให้มีการซื้อขายไฟฟ้าในระยะสั้น ทำให้ตลาดพลังงานสามารถผลิตผลผลิตสุทธิได้ในช่วงระยะเวลาหนึ่งอันเป็นผลมาจากระบบกระจายนี้ อุตสาหกรรมพลังงานต้องการระบบที่ให้ทันสมัยอย่างเร่งด่วนเพื่อจัดการกับปัญหาต่างๆ ได้แก่ สภาพอากาศในปัจจุบัน ทรัพยากรหมุนเวียน และกรอบการทำงานด้านพลังงาน ในวิทยานิพนธ์นี้ได้เสนอวิธีการเรียนรู้การเสริมแรงเชิงลึกสำหรับการซื้อขายพลังงานทั้งแบบค้าส่งและระดับท้องถิ่น สำหรับปัญการในโลกแห่งความเป็นจริง เพื่อการแลกเปลี่ยนพลังงานให้เหมาะสมและคุ้มค่าที่สุด โดยเสนออัลกอริทึม MB-A3C สำหรับการเสนอราคาพลังงานล่วงหน้าเพื่อลดต้นทุนของ ผู้ผลิตไฟฟ้าจากพลังงานลม โดยได้แสดงให้เห็นว่าแบบจำลองสามารถสร้างกลยุทธ์ที่ทำให้ต้นทุนเฉลี่ยต่อวันลดลงมากกว่า 15% ในเดนมาร์กและสวีเดน (ชุดข้อมูล Nord Pool) และได้ขยายแบบจำลองเป็น MB-A3C3 เพื่อทดลองในชุดข้อมูลขนาดใหญ่ระหว่างปี 2555-2556 จำนวน 300 ครัวเรือนในซิดนีย์ ประเทศออสเตรเลีย เมื่อการซื้อขายกันเองระหว่างบ้านเพิ่มขึ้นและการซื้อขายภายนอก (การซื้อขายไปยังกริด) ลดลง ทำให้ MB-A3C3 ช่วยลดค่าไฟลง 17% อย่างมีนัยสำคัญ ถือเป็นการปิดช่องว่างระหว่างปัญหาในโลกแห่งความเป็นจริงและปัญหาทางทฤษฎีในด้านการช่วยลดต้นทุนการผลิตพลังงานลมและค่าไฟฟ้าได้อย่างมีประสิทธิภาพ-
dc.language.isoen-
dc.publisherChulalongkorn University-
dc.relation.urihttp://doi.org/10.58837/CHULA.THE.2022.91-
dc.rightsChulalongkorn University-
dc.subject.classificationEngineering-
dc.titleDeep reinforcement learning for electricity energy trading-
dc.title.alternativeการเรียนรู้แบบเสริมกําลังเชิงลึกสําหรับการซื้อขายพลังงานไฟฟ้า-
dc.typeThesis-
dc.degree.nameDoctor of Philosophy-
dc.degree.levelDoctoral Degree-
dc.degree.disciplineComputer Engineering-
dc.degree.grantorChulalongkorn University-
dc.identifier.DOI10.58837/CHULA.THE.2022.91-
Appears in Collections:Eng - Theses

Files in This Item:
File Description SizeFormat 
6273016521.pdf5.23 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.