Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/362
Title: Uma estratégia para predição da taxa de aprendizagem do gradiente descendente para aceleração da fatoração de matrizes.
Other Titles: A strategy to predict the learning rate of the downward gradient for acceleration of matrix factorization.
Une stratégie pour prédire le taux d'apprentissage du gradient descendant pour l'accélération de la factorisation matricielle.
???metadata.dc.creator???: NÓBREGA, Caio Santos Bezerra.
???metadata.dc.contributor.advisor1???: MARINHO, Leandro Balby.
Keywords: Metodologias e técnicas da computação;Ciência da computação;Aceleração da fatoração de matrizes;Gradiente descendente;Sistemas de recomendação;Taxa de aprendizagem - gradiente;Modelos de regressão lineares;Recomender system;Matrix Factorization;Recommendation systems;Gradient descent;système de recommandation;factorisation matricielle;Simple linear regression models
Issue Date: 30-Jul-2014
Publisher: Universidade Federal de Campina Grande
Citation: NÓBREGA, Caio Santos Bezerra. Uma estratégia para predição da taxa de aprendizagem do gradiente descendente para aceleração da fatoração de matrizes. 2014. 77f. (Dissertação de Mestrado), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande - Paraíba - Brasil, 2014. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/362
???metadata.dc.description.resumo???: Sugerir os produtos mais apropriados aos diversos tipos de consumidores não é uma tarefa trivial, apesar de ser um fator chave para aumentar satisfação e lealdade destes. Devido a esse fato, sistemas de recomendação têm se tornado uma ferramenta importante para diversas aplicações, tais como, comércio eletrônico, sites personalizados e redes sociais. Recentemente, a fatoração de matrizes se tornou a técnica mais bem sucedida de implementação de sistemas de recomendação. Os parâmetros do modelo de fatoração de matrizes são tipicamente aprendidos por meio de métodos numéricos, tal como o gradiente descendente. O desempenho do gradiente descendente está diretamente relacionada à configuração da taxa de aprendizagem, a qual é tipicamente configurada para valores pequenos, com o objetivo de não perder um mínimo local. Consequentemente, o algoritmo pode levar várias iterações para convergir. Idealmente,é desejada uma taxa de aprendizagem que conduza a um mínimo local nas primeiras iterações, mas isto é muito difícil de ser realizado dada a alta complexidade do espaço de valores a serem pesquisados. Começando com um estudo exploratório em várias bases de dados de sistemas de recomendação, observamos que, para a maioria das bases, há um padrão linear entre a taxa de aprendizagem e o número de iterações necessárias para atingir a convergência. A partir disso, propomos utilizar modelos de regressão lineares simples para predizer, para uma base de dados desconhecida, um bom valor para a taxa de aprendizagem inicial. A ideia é estimar uma taxa de aprendizagem que conduza o gradiente descendenteaummínimolocalnasprimeirasiterações. Avaliamosnossatécnicaem8bases desistemasderecomendaçãoreaisecomparamoscomoalgoritmopadrão,oqualutilizaum valorfixoparaataxadeaprendizagem,ecomtécnicasqueadaptamataxadeaprendizagem extraídas da literatura. Nós mostramos que conseguimos reduzir o número de iterações até em 40% quando comparados à abordagem padrão.
Abstract: Suggesting the most suitable products to different types of consumers is not a trivial task, despite being a key factor for increasing their satisfaction and loyalty. Due to this fact, recommender systems have be come an important tool for many applications, such as e-commerce, personalized websites and social networks. Recently, Matrix Factorization has become the most successful technique to implement recommendation systems. The parameters of this model are typically learned by means of numerical methods, like the gradient descent. The performance of the gradient descent is directly related to the configuration of the learning rate, which is typically set to small values, in order to do not miss a local minimum. As a consequence, the algorithm may take several iterations to converge. Ideally, one wants to find a learning rate that will lead to a local minimum in the early iterations, but this is very difficult to achieve given the high complexity of search space. Starting with an exploratory study on several recommendation systems datasets, we observed that there is an over all linear relationship between the learnin grate and the number of iterations needed until convergence. From this, we propose to use simple linear regression models to predict, for a unknown dataset, a good value for an initial learning rate. The idea is to estimate a learning rate that drives the gradient descent as close as possible to a local minimum in the first iteration. We evaluate our technique on 8 real-world recommender datasets and compared it with the standard Matrix Factorization learning algorithm, which uses a fixed value for the learning rate over all iterations, and techniques fromt he literature that adapt the learning rate. We show that we can reduce the number of iterations until at 40% compared to the standard approach.
Keywords: Metodologias e técnicas da computação
Ciência da computação
Aceleração da fatoração de matrizes
Gradiente descendente
Sistemas de recomendação
Taxa de aprendizagem - gradiente
Modelos de regressão lineares
Recomender system
Matrix Factorization
Recommendation systems
Gradient descent
système de recommandation
factorisation matricielle
Simple linear regression models
???metadata.dc.subject.cnpq???: Ciência da computação.
URI: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/362
Appears in Collections:Mestrado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
CAIO SANTOS BEZERRA NÓBREGA - DISSERTAÇÃO PPGCC 2014.pdfCaio Santos Bezerra Nóbrega - Dissertação PPGCC 2014.991.3 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.