Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/36708
Title: Sem conflito no cache: observações de uma plataforma de comércio eletrônico multi-tenant.
Other Titles: No cache conflict: observations from a multi-tenant ecommerce platform.
???metadata.dc.creator???: LIRA, Anna Beatriz Lucena.
???metadata.dc.contributor.advisor1???: PEREIRA, Thiago Emmanuel.
???metadata.dc.contributor.referee1???: GOMES, Reinaldo Cezar de Morais.
???metadata.dc.contributor.referee2???: BRASILEIRO, Francisco Vilar.
Keywords: Serviço de Internet;Armazenamento em Cache;Carga de Trabalho;Sistemas Multi-inquilinos;Web Service;Caching;Work Load;Multi-tenant Systems
Issue Date: 17-Nov-2023
Publisher: Universidade Federal de Campina Grande
Citation: LIRA, Anna Beatriz Lucena. Sem conflito no cache: observações de uma plataforma de comércio eletrônico multi-tenant. 2023. 15 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2023.
???metadata.dc.description.resumo???: O armazenamento em cache é uma técnica clássica para aumentar o desempenho do sistema, reduzindo a latência percebida pelo cliente e a carga do servidor. No entanto, projetar e configurar cuidadosamente o cache é uma tarefa desafiaforal. Inclui a escolha do tamanho da capacidade, da política de remoção de itens, entre outros aspectos. Esta tarefa é ainda mais complexa em sistemas multi-inquilinos, nos quais cada inquilino opera de forma independente e apresenta demandas diferentes ao longo do tempo. Por essa razão, a configuração eficaz e a gestão do cache requerem uma compreensão das características da carga de trabalho, incluindo níveis de carga, padrões de acesso e localidade temporal. Este artigo concentra-se na caracterização da carga de trabalho de um cache multi-inquilino em uma grande plataforma de comércio eletrônico. Encontramos uma diversidade significativa entre inquilinos em relação a padrões de carga, utilidade do cache e localidade temporal. Com base nisso, destacamos estratégias para otimizar a gestão de sistemas de cache multi-inquilino, adotando políticas de admissão e ajuste dinâmico de capacidade (escalonamento). A implementação dessas estratégias em um ambiente de produção constituirá uma fase subsequente desta investigação.
Abstract: Caching is a classic technique for boosting system performance by reducing client-perceived latency and server load. However, carefully designing and configuring the cache is a challenging task. It includes choosing capacity size and eviction policy, among others. This task is more challenging in multi-tenant systems, where each tenant operates independently and exhibits different demands over time. For this reason, effective cache configuration and management require an understanding of workload characteristics, including load levels, patterns of access, and temporal locality. This paper focuses on the workload characterization of a multi-tenant cache of a large ecommerce platform. We find a significant diversity of tenants regarding load patterns, cache usability, and temporal locality. Based on this, we highlight strategies to optimize the management of multi-tenant cache systems by adopting admission policies and dynamic capacity adjustment (scaling). Implementing these strategies within a production environment will constitute a subsequent phase in this investigation.
Keywords: Serviço de Internet
Armazenamento em Cache
Carga de Trabalho
Sistemas Multi-inquilinos
Web Service
Caching
Work Load
Multi-tenant Systems
???metadata.dc.subject.cnpq???: Ciência da Computação
URI: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/36708
Appears in Collections:Trabalho de Conclusão de Curso - Artigo - Ciência da Computação

Files in This Item:
File Description SizeFormat 
ANNA BEATRIZ LUCENA LIRA-ARTIGO-CEEI-CIÊNCIA DA COMPUTAÇÃO (2023).pdf920.34 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.