Please use this identifier to cite or link to this item:
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661
Title: | Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
Other Titles: | Data-driven control system for distillation columns using deep reinforcement learning. |
???metadata.dc.creator???: | LIMA JÚNIOR, Gladson Euler. |
???metadata.dc.contributor.advisor1???: | VASCONCELOS, Luís Gonzaga Sales. |
???metadata.dc.contributor.referee1???: | BRITO , Romildo Pereira. |
???metadata.dc.contributor.referee2???: | BRITO, Karoline Dantas. |
???metadata.dc.contributor.referee3???: | MORAIS JÚNIOR, Arioston Araújo de Morais. |
???metadata.dc.contributor.referee4???: | NEVES, Thiago Gonçalves das. |
Keywords: | Controle baseado em dados;Aspen Plus Dynamics;Deep Q-Network;Q-learning;Algoritmo de treinamento genérico;Data-driven control;Aspen Plus Dynamics;Deep Q-Network;Qlearning;generic training algorithm |
Issue Date: | 25-Sep-2023 |
Publisher: | Universidade Federal de Campina Grande |
Citation: | LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023. |
???metadata.dc.description.resumo???: | O controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta. |
Abstract: | Precise control of composition in distillation columns is essential to ensure product quality and process performance. However, PID-type feedback controllers, commonly used in these processes, may have limitations depending on the control loop used. In this regard, data-based controls using reinforcement learning (RL) techniques have become an attractive solution due to the algorithm's adaptability to various control conditions. Recent research indicates a focus on the development of studies aimed at the performance of RL algorithms, often overlooking the robustness in environmental modeling. In this work, the development of an integrated dynamic training algorithm using Python and Aspen Plus Dynamics for evaluating different RL models was proposed. The adoption of Aspen Plus Dynamics for training and validation ensures the complexity, non-linearity, and transient nature of the distillation process. To evaluate the algorithm, the methodologies of Q-Learning and Deep Q-Network (DQN), coupled with a PID controller, were applied. The first stage of the work involved evaluating Q-Learning, exploring two strategies: a fixed control action rate of 0.5% and another with a flexible action rate between 0.1% and 5%. In the second stage, the proposal was to replace Q-Learning with DQN while retaining the best control action rate strategy. Through COM-type communication, it was possible to track the observable variables in the Aspen Plus Dynamics software and make changes to the dynamic model from Python throughout the simulation. The results confirm the limitations of the inferential control loop in maintaining the isobutane composition at the base of the column during disturbances in the propane composition in the feed. The strategy with QLearning and a variable action rate showed approximately twice the accuracy compared to the fixed rate, expanding the regions of correctness. On the other hand, the use of DQN control allowed maintaining the composition within specification in 96% of the evaluated test scenarios, with a 52.9% lower IAE compared to Q-Learning with a variable action rate. In this sense, the DQN approach has proven capable of handling a high-dimensional and nonlinear process more robustly. |
Keywords: | Controle baseado em dados Aspen Plus Dynamics Deep Q-Network Q-learning Algoritmo de treinamento genérico Data-driven control Aspen Plus Dynamics Deep Q-Network Qlearning generic training algorithm |
???metadata.dc.subject.cnpq???: | Engenharia Química |
URI: | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661 |
Appears in Collections: | Doutorado em Engenharia Química. |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
GLADSON EULER LIMA JÚNIOR TESE (PPGEQ) 2023.pdf | 2.9 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.