DSpace/Manakin Repository

Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.

Mostrar registro simples

dc.creator.ID LIMA JÚNIOR, G. E. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/1297720325243111 pt_BR
dc.contributor.advisor1 VASCONCELOS, Luís Gonzaga Sales.
dc.contributor.advisor1ID VASCONCELOS, L. G. S. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/9456860386065509 pt_BR
dc.contributor.referee1 BRITO , Romildo Pereira.
dc.contributor.referee2 BRITO, Karoline Dantas.
dc.contributor.referee3 MORAIS JÚNIOR, Arioston Araújo de Morais.
dc.contributor.referee4 NEVES, Thiago Gonçalves das.
dc.description.resumo O controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Ciências e Tecnologia - CCT pt_BR
dc.publisher.program PÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICA pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Engenharia Química pt_BR
dc.title Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. pt_BR
dc.date.issued 2023-09-25
dc.description.abstract Precise control of composition in distillation columns is essential to ensure product quality and process performance. However, PID-type feedback controllers, commonly used in these processes, may have limitations depending on the control loop used. In this regard, data-based controls using reinforcement learning (RL) techniques have become an attractive solution due to the algorithm's adaptability to various control conditions. Recent research indicates a focus on the development of studies aimed at the performance of RL algorithms, often overlooking the robustness in environmental modeling. In this work, the development of an integrated dynamic training algorithm using Python and Aspen Plus Dynamics for evaluating different RL models was proposed. The adoption of Aspen Plus Dynamics for training and validation ensures the complexity, non-linearity, and transient nature of the distillation process. To evaluate the algorithm, the methodologies of Q-Learning and Deep Q-Network (DQN), coupled with a PID controller, were applied. The first stage of the work involved evaluating Q-Learning, exploring two strategies: a fixed control action rate of 0.5% and another with a flexible action rate between 0.1% and 5%. In the second stage, the proposal was to replace Q-Learning with DQN while retaining the best control action rate strategy. Through COM-type communication, it was possible to track the observable variables in the Aspen Plus Dynamics software and make changes to the dynamic model from Python throughout the simulation. The results confirm the limitations of the inferential control loop in maintaining the isobutane composition at the base of the column during disturbances in the propane composition in the feed. The strategy with QLearning and a variable action rate showed approximately twice the accuracy compared to the fixed rate, expanding the regions of correctness. On the other hand, the use of DQN control allowed maintaining the composition within specification in 96% of the evaluated test scenarios, with a 52.9% lower IAE compared to Q-Learning with a variable action rate. In this sense, the DQN approach has proven capable of handling a high-dimensional and nonlinear process more robustly. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661
dc.date.accessioned 2023-11-06T12:22:06Z
dc.date.available 2023-11-06
dc.date.available 2023-11-06T12:22:06Z
dc.type Tese pt_BR
dc.subject Controle baseado em dados pt_BR
dc.subject Aspen Plus Dynamics pt_BR
dc.subject Deep Q-Network pt_BR
dc.subject Q-learning pt_BR
dc.subject Algoritmo de treinamento genérico pt_BR
dc.subject Data-driven control pt_BR
dc.subject Aspen Plus Dynamics pt_BR
dc.subject Deep Q-Network pt_BR
dc.subject Qlearning pt_BR
dc.subject generic training algorithm pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator LIMA JÚNIOR, Gladson Euler.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Data-driven control system for distillation columns using deep reinforcement learning. pt_BR
dc.description.sponsorship Capes pt_BR
dc.identifier.citation LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023. pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta