Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/12702
Full metadata record
DC FieldValueLanguage
dc.creator.IDSILVA, G. F.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/0658991684652931pt_BR
dc.contributor.advisor1BRASILEIRO, Francisco Vilar.-
dc.contributor.advisor2LOPES, Raquel Vigolvino.-
dc.contributor.advisor2IDLOPES, R. V.pt_BR
dc.contributor.advisor2Latteshttp://lattes.cnpq.br/0577503698179302pt_BR
dc.contributor.referee1BRITO, Andrey Elísio Monteiro.-
dc.contributor.referee2GOMES, Reinaldo César de Morais.-
dc.contributor.referee3ZORZO, Avelino Francisco.-
dc.contributor.referee4SENGER, Hermes.-
dc.description.resumoO modelo de Computação na Nuvem de infraestrutura como serviço (IaaS,do inglês Infraestructureas a Service) tem se tornado cada vez mais a principal escolha de provisionamento de infraestrutura de computação. Com isso, cresce também a diversidade das cargas de trabalho submetidas pelos usuários. Essa característica, juntamente com a heterogeneidade das complexas infraestruturas usadas para executar essas cargas de trabalho, tornando gerenciamento de recursos um dos principais desafios para provedores de computação na nuvem de larga escala. Para aumentar a utilização de recursos (consequentemente a lucratividade) e satisfazer as necessidades distintas dos usuários, os provedores podem oferecer múltiplas classes de serviço. Essas classes são diferenciadas pela qualidade de serviço (QoS,do inglês Quality of Service) prometida, que comumente é definida em termos de objetivos de nível de serviço (SLO,do inglês Service Level Objectives) estabelecidos em um contrato de nível de serviço (SLA, do inglês Service Level Agreement). Por outro lado, os provedores estão sujeitos ao pagamento de penalidades em caso de violações dos SLAs. O gerenciamento de recursos é dividido em etapas com responsabilidades bem definidas. Essas etapas operam em conjunto com o intuito de evitar cenários de superprovisionamento (mantendo os custos o mais baixo possível) e subprovisionamento (mantendo a QoSem níveis aceitáveis). A atividade de escalonamento é responsável por definir quais requisições devem ter recursos alocados em um dado instante e quais os servidores devem prover esses recursos. No contexto de provedores de larga escala, políticas de escalonamento base a das em prioridades geralmente são utilizadas para garantir que as requisições de diferentes classes de serviço receba maQoS prometida. Prioridades maiores são associadas com classes cujas QoSs prometidas são maiores. Caso seja necessário, recursos alocados para requisições com prioridades menores podem ser preemptados para permitir que requisições com prioridades maiores sejam executadas. Porém, nesse contexto, a QoS entregue às requisições durante períodos com contenção de recursos pode ser injusta para certas requisições. Em particular, requisições com prioridades mais baixas podem ter seus recursos preemptados para a como dar outras com prioridades mais altas, mesmo se a QoS entregue para as últimas esteja acima da desejada, e a QoS das primeiras esteja abaixo da esperada. Além disso, requisições com mesma prioridade e que competem pelo mesmo recurso podem experimentar QoSs bem diferentes, visto que algumas delas podem sempre executar enquanto outras permanecem sempre pendentes. Este trabalho apresenta uma política de escalonamento que é orientada pela QoS prometida para as requisições. Esta segue uma nova abordagem de preempção na qual qualquer requisição cuja QoS atual esteja excedendo sua respectiva meta pode ter seus recursos preemptados em benefício de outras com QoS abaixo da meta (ou que estejam mais próximas de ter seus SLOs não satisfeitos). Os benefícios de usar uma política orientada por QoS são :(i) ela mantém a QoS de cada requisição a mais alta possível, considerando suas respectivas metas e recursos disponíveis; e (ii) ela minimiza a variância da QoS entregue para requisições de uma mesma classe, promovendo o provisionamento justo. Essas características permitem a definição de SLAs que são mais apropriados e que estão de acordo com os principais provedores de nuvem pública. A política proposta foi avaliada através de comparações entre seus resultados e os obtidos com um escalonador que representa o estado-da-prática, baseado em prioridade. Esta comparação se deu por experimentos de simulação—validados por experimentos de medição alimentados por amostras de rastros de execução de um sistema em produção. No geral, o escalonamento orientado por QoS entrega um serviço melhor que o baseado em prioridade, especialmente quando a contenção de recursos não é tão alta. A similaridade da QoS entregue para requisições de uma mesma classe também foi muito mais alta quando o escalonamento orientado por QoS foi utilizado, particularmente quando nem todas as requisições receberam a QoS prometida. Além disso, com base na prática atual de grandes provedores públicos, os resultados mostraram que as penalidades incorridas pelo uso do escalonador baseado em prioridade podem ser, em média, até aproximadamente 2 vezes mais altas que aquelas incorridas pelo escalonador orientado por QoS. Por fim, o custo operacional do escalonador orientado por QoS foi aproximadamente 15 vezes maior. Porém, ainda há espaço para a implementação de otimizações, tal como um mecanismo de cache já implementado no escalonamento base a do em prioridade. A nova política ainda se mostrou viável de ser implementada em um sistema real. As métricas utilizadas por seu escalonador foram definidas de forma que a política opere no sistema sem interferir na forma como os usuários interagem como mesmo.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.programPÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqCiência da Computaçãopt_BR
dc.subject.cnpqMetodologia e Técnicas da Computaçãopt_BR
dc.titleEscalonamento orientado por qualidade de serviço em infraestruturas de computação na nuvem.pt_BR
dc.date.issued2020-02-18-
dc.description.abstractThe Cloud Computing model of infrastructure as a service (IaaS, from Infraestructureas a Service) has increasingly become the main choice for provisioning computing infrastructure. As a result, the diversity of workloads submitted by users also grows. This feature, coupled with the heterogeneity of the complex infrastructures used to run these workloads, make resource management one of the main challenges for large-scale cloud computing providers. To increase the use of resources (consequently profitability) and satisfy the different needs of users, providers can offer multiple classes of service. These classes are distinguished by the promised quality of service (QoS), which is commonly defined in terms of service level objectives (SLO) established in a service level agreement (SLA , from the English Service Level Agreement). On the other hand, providers are subject to the payment of penalties in case of breaches of the SLAs. Resource management is divided into stages with well-defined responsibilities. These steps operate together in order to avoid over-provisioning scenarios (keeping costs as low as possible) and under-provisioning (keeping QoS at acceptable levels). The scheduling activity is responsible for defining which requests must have resources allocated at a given time and which servers must provide these resources. In the context of large-scale providers, priority-based scheduling policies are generally used to ensure that requests for different classes of service receive promised maQoS. Higher priorities are associated with classes whose promised QoSs are higher. If necessary, resources allocated to requests with lower priorities can be preempted to allow requests with higher priorities to be executed. However, in this context, the QoS delivered to requests during periods of resource contention may be unfair for certain requests. In particular, requests with lower priorities may have their resources preempted for how to give others with higher priorities, even if the QoS delivered to the latter is above the desired level, and the QoS of the former is below expected. In addition, requests with the same priority and competing for the same resource can experience very different QoSs, since some of them can always be executed while others remain always pending. This work presents a scheduling policy that is guided by the QoS promised for the requests. This follows a new preemption approach in which any request whose current QoS is exceeding its respective target may have its resources preempted for the benefit of others with QoS below the target (or that are closer to having their SLOs not satisfied). The benefits of using a QoS-oriented policy are: (i) it keeps the QoS for each request as high as possible, considering their respective goals and available resources; and (ii) it minimizes the variance of the QoS delivered for requests of the same class, promoting fair provisioning. These characteristics allow the definition of SLAs that are more appropriate and that are in agreement with the main public cloud providers. The proposed policy was evaluated through comparisons between its results and those obtained with a scheduler that represents the state of practice, based on priority. This comparison was made by simulation experiments — validated by measurement experiments fed by samples of the execution tracks of a production system. Overall, QoS-driven scheduling delivers better service than priority-based, especially when resource contention is not as high. The similarity of QoS delivered for requests from the same class was also much higher when QoS-oriented scheduling was used, particularly when not all requests received the promised QoS. In addition, based on the current practice of large public providers, the results showed that the penalties incurred for using the priority-based scheduler can be, on average, up to approximately 2 times higher than those incurred by the QoS-driven scheduler. , the operating cost of the QoS-oriented scheduler was approximately 15 times higher. However, there is still room for the implementation of optimizations, such as a cache mechanism already implemented in the base-a-priority scheduling. The new policy still proved viable to be implemented in a real system. The metrics used by your scheduler have been defined so that the policy operates on the system without interfering with the way users interact as they do.pt_BR
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/12702-
dc.date.accessioned2020-04-07T16:03:54Z-
dc.date.available2020-04-07-
dc.date.available2020-04-07T16:03:54Z-
dc.typeTesept_BR
dc.subjectComputação na nuvempt_BR
dc.subjectCloud Computingpt_BR
dc.subjectComputación en la nubept_BR
dc.subjectEscalonamentopt_BR
dc.subjectProgramaciónpt_BR
dc.subjectSchedulingpt_BR
dc.subjectQualidade de serviçopt_BR
dc.subjectService qualitypt_BR
dc.subjectCalidad de serviciopt_BR
dc.subjectProvisionamento justopt_BR
dc.subjectAprovisionamiento justopt_BR
dc.subjectFair provisioningpt_BR
dc.rightsAcesso Abertopt_BR
dc.creatorSILVA, Giovanni Farias da.-
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeScaling driven by quality of service in cloud computing infrastructures.pt_BR
dc.identifier.citationSILVA, G. F. da. Escalonamento orientado por qualidade de serviço em infraestruturas de computação na nuvem. 2020. 145 f. Tese (Doutorado em Sistemas e Computação), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande - Paraíba - Brasil, 2020. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/12702pt_BR
Appears in Collections:Doutorado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
GIOVANNI FARIAS DA SILVA - TESE (PPGCC) 2019.pdfGiovanni Farias da silva - Tese (PPGCC) 2020.6.81 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.