DSpace Repository

Deep reinforcement learning for electricity energy trading

Show simple item record

dc.contributor.advisor Peerapon Vateekul
dc.contributor.author Manassakan Sanayha
dc.contributor.other Chulalongkorn University. Faculty of Engineering
dc.date.accessioned 2023-02-03T04:00:40Z
dc.date.available 2023-02-03T04:00:40Z
dc.date.issued 2022
dc.identifier.uri http://cuir.car.chula.ac.th/handle/123456789/81543
dc.description Thesis (Ph.D.)--Chulalongkorn University, 2022
dc.description.abstract The deregulation and liberalization of the energy market in the 1990s prompted short-term electricity trading, allowing energy markets to produce net output over a range of time periods as a result of this decentralized system, most commonly minutes to days ahead of time. The energy industry urgently requires a system that has undergone substantial modernization in place to handle a variety of issues, including the current climate, renewable resources, and the energy framework. In this dissertation, we investigate a deep reinforcement learning framework for both wholesale and local energy trading, which probes the challenge of RL to optimize the real-world problem in the energy exchange. First, we introduce the MB-A3C algorithm for day-ahead energy bidding to reduce WPP’s costs. Also, we have illustrated that our model can generate a strategy that obtains a more than 15% reduction in average cost per day in Denmark and Sweden (Nord Pool dataset). Second, the MB-A3C3 approach is carried out and conducted on a large-scale, real-world, hourly 2012–2013 dataset of 300 households in Sydney, Australia. When internal trade (trading among houses) increased and external trade (trading to the grid) decreased, our multiple agent RL (MB-A3C3) significantly lowered energy bills by 17%. In closing the gap between real-world and theoretical problems, the algorithms herein aid in reducing wind power production costs and customers’ electricity bills.
dc.description.abstractalternative การยกเลิกกฎระเบียบและการเปิดเสรีของตลาดพลังงานในทศวรรษ 1990 ได้กระตุ้นให้มีการซื้อขายไฟฟ้าในระยะสั้น ทำให้ตลาดพลังงานสามารถผลิตผลผลิตสุทธิได้ในช่วงระยะเวลาหนึ่งอันเป็นผลมาจากระบบกระจายนี้ อุตสาหกรรมพลังงานต้องการระบบที่ให้ทันสมัยอย่างเร่งด่วนเพื่อจัดการกับปัญหาต่างๆ ได้แก่ สภาพอากาศในปัจจุบัน ทรัพยากรหมุนเวียน และกรอบการทำงานด้านพลังงาน ในวิทยานิพนธ์นี้ได้เสนอวิธีการเรียนรู้การเสริมแรงเชิงลึกสำหรับการซื้อขายพลังงานทั้งแบบค้าส่งและระดับท้องถิ่น สำหรับปัญการในโลกแห่งความเป็นจริง เพื่อการแลกเปลี่ยนพลังงานให้เหมาะสมและคุ้มค่าที่สุด โดยเสนออัลกอริทึม MB-A3C สำหรับการเสนอราคาพลังงานล่วงหน้าเพื่อลดต้นทุนของ ผู้ผลิตไฟฟ้าจากพลังงานลม โดยได้แสดงให้เห็นว่าแบบจำลองสามารถสร้างกลยุทธ์ที่ทำให้ต้นทุนเฉลี่ยต่อวันลดลงมากกว่า 15% ในเดนมาร์กและสวีเดน (ชุดข้อมูล Nord Pool) และได้ขยายแบบจำลองเป็น MB-A3C3 เพื่อทดลองในชุดข้อมูลขนาดใหญ่ระหว่างปี 2555-2556 จำนวน 300 ครัวเรือนในซิดนีย์ ประเทศออสเตรเลีย เมื่อการซื้อขายกันเองระหว่างบ้านเพิ่มขึ้นและการซื้อขายภายนอก (การซื้อขายไปยังกริด) ลดลง ทำให้ MB-A3C3 ช่วยลดค่าไฟลง 17% อย่างมีนัยสำคัญ ถือเป็นการปิดช่องว่างระหว่างปัญหาในโลกแห่งความเป็นจริงและปัญหาทางทฤษฎีในด้านการช่วยลดต้นทุนการผลิตพลังงานลมและค่าไฟฟ้าได้อย่างมีประสิทธิภาพ
dc.language.iso en
dc.publisher Chulalongkorn University
dc.relation.uri http://doi.org/10.58837/CHULA.THE.2022.91
dc.rights Chulalongkorn University
dc.subject.classification Engineering
dc.title Deep reinforcement learning for electricity energy trading
dc.title.alternative การเรียนรู้แบบเสริมกําลังเชิงลึกสําหรับการซื้อขายพลังงานไฟฟ้า
dc.type Thesis
dc.degree.name Doctor of Philosophy
dc.degree.level Doctoral Degree
dc.degree.discipline Computer Engineering
dc.degree.grantor Chulalongkorn University
dc.identifier.DOI 10.58837/CHULA.THE.2022.91


Files in this item

This item appears in the following Collection(s)

Show simple item record