Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://hdl.handle.net/11701/39806
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.advisorМихеев Викентий Сергеевичru_RU
dc.contributor.advisorMiheev Vikentij Sergeevicen_GB
dc.contributor.authorКудин Павел Сергеевичru_RU
dc.contributor.authorKudin Pavel Sergeevicen_GB
dc.contributor.editorПетросян Ованес Леоновичru_RU
dc.contributor.editorPetrosan Ovanes Leonovicen_GB
dc.date.accessioned2023-04-06T21:48:40Z-
dc.date.available2023-04-06T21:48:40Z-
dc.date.issued2022
dc.identifier.other056669en_GB
dc.identifier.urihttp://hdl.handle.net/11701/39806-
dc.description.abstractВ данной работе рассматривается проблема оптимального планирования зарядки и разрядки аккумуляторной батареи, а также обмена с энергетическим рынком с целью минимизации финансовых затрат на электроэнергию при условиях соблюдения ограничений системы, емкости накопителя и соблюдения энергетического баланса. Исторические данные для задачи были предоставлены в открытый доступ инжиниринговой компанией Schneider Electric в рамках соревнования Power Laws, в котором участники продемонстрировали методы, основанные на детерминистических подходах. Это не позволяет применять их в рамках реальных индустриальных задач, а также имеет серьезный недостаток в виде накопления ошибок при наличии плохих прогнозных значений, содержащихся в исторических данных. Автором предлагается альтернативный подход к решению задачи, основанный на методах обучения с подкреплением (RL), главным преимуществом которых, помимо возможности работать с множеством неопределенностей и обучения на эмпирических моделях рассматриваемой проблемы, является умение агента адаптироваться в среде при изменении входных данных и переобучаться в случае возникновения непредвиденных ситуаций. В результате работы было произведено обучение 3 моделей обучения с подкреплением с использованием интерфейса Ray: проксимальная оптимизация политики (PPO), актор-критик асинхронного преимущества (A3C), градиент политики (PG). Автором была выполнена визуализация процесса обучения используемых алгоритмов, проведено сравнение итоговых затрат по сравнению с результатами смешанного целочисленного линейного программирования (MILP), сделаны соответствующие выводы касательно преимуществ обучения с подкреплением при решении задач планирования батареи в энергосистемах перед детерминистическими подходами.ru_RU
dc.description.abstractThis paper considers the problem of optimal planning for charging and discharging the battery, as well as the exchange with the energy market in order to minimize the financial costs of electricity, subject to the limitations of the system, the storage device and the observance of the energy balance. Historical data for the problem was made publicly available by the engineering company Schneider Electric as part of the Power Laws competition, in which participants demonstrated methods based on deterministic approaches. This does not allow them to be applied to real industrial problems, and also has a serious drawback in the form of error accumulation in the presence of bad predictive values ​​contained in historical data. The author proposes an alternative approach to solving the problem, based on reinforcement learning (RL) methods, the main advantage of which, in addition to the ability to work with many uncertainties and learning from empirical models of the problem under consideration, is the ability of the agent to adapt to the environment when the input data changes and retrain in case of unforeseen situations. . As a result of the work, 3 reinforcement learning models were trained using the Ray interface: Proximal Policy Optimization (PPO), Asynchronous Advantage Actor-Critic (A3C), Policy Gradient (PG). The author visualized the learning process of the algorithms used, compared the total costs compared to the results of mixed integer linear programming (MILP), made appropriate conclusions regarding the advantages of reinforcement learning in solving battery planning problems in power systems over deterministic approaches.en_GB
dc.language.isoru
dc.subjectобучение с подкреплениемru_RU
dc.subjectмашинное обучениеru_RU
dc.subjectэнергоменеджментru_RU
dc.subjectсистемы электроснабженияru_RU
dc.subjectвозобновляемые источники энергииru_RU
dc.subjectпланирование графика использования батареиru_RU
dc.subjectPPOru_RU
dc.subjectA3Cru_RU
dc.subjectPGru_RU
dc.subjectинтерфейс программирования приложений Rayru_RU
dc.subjectreinforcement learningen_GB
dc.subjectmachine learningen_GB
dc.subjectenergy managementen_GB
dc.subjectenergy systemsen_GB
dc.subjectrenewable energyen_GB
dc.subjectbattery schedulingen_GB
dc.subjectPPOen_GB
dc.subjectA3Cen_GB
dc.subjectPGen_GB
dc.subjectapplication programming interface Rayen_GB
dc.titleApplication of reinforcement learning algorithms in managing renewable energy systemsen_GB
dc.title.alternativeПрименение алгоритмов обучения с подкреплением для управления системами электроснабжения с возобновляемыми источниками энергииru_RU
Располагается в коллекциях:MASTER'S STUDIES

Файлы этого ресурса:
Файл Описание РазмерФормат 
diploma.pdfArticle2,16 MBAdobe PDFПросмотреть/Открыть
reviewSV_Otzyv__2_.pdfReviewSV274,53 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.