Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
Title: Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
Other Titles: Generation of explanations for recommendation systems via interpretable local models.
???metadata.dc.creator???: NÓBREGA, Caio Santos Bezerra.
???metadata.dc.contributor.advisor1???: MARINHO, Leandro Balby.
???metadata.dc.contributor.referee1???: CAMPELO, Cláudio Elízio Calazans.
???metadata.dc.contributor.referee2???: ANDRADE, Nazareno Ferreira de.
???metadata.dc.contributor.referee3???: MOURA, Edleno Silva de.
???metadata.dc.contributor.referee4???: MANZATO, Marcelo Garcia.
Keywords: Sistemas de Recomendação;Explicações de Recomendações;Interpretabilidade;Fatoração de Matrizes;Apredizabem Profunda;Recommender Systems;Recommendation Explanations;Interpretability;Matrix Factorization;Deep Learning
Issue Date: 5-Feb-2021
Publisher: Universidade Federal de Campina Grande
Citation: NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
???metadata.dc.description.resumo???: O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.
Abstract: The increase in sophistication and complexity of Machine Learning (ML) models has turned them into black boxes where the reasoning behind their predictions is hard to understand by humans. Even for low-risk tasks such as movie recommendation, show why a recommendation was made has become a key requirement since it can potentially improve users’ trust and help them to make better decisions. In this sense, there is a growing need to equip such models with interpretability in order to make them clear or easy to understand. A popular approach to achieve this goal is known as post-hoc interpretability, which consists of separating the process of generating explanations from the complex model, i.e, adding a layer of interpretability on top of it. In this thesis, we propose to investigate post-hoc interpretability methods for complex recommender systems. In particular, we propose an adaptation of LIME (Local Interpretable Model-agnostic Explanations), a popular post-hoc interpretability method, whose objective is to learn an interpretable model, under a space of interpretable features in the neighborhood of the instance being predicted. In addition, we investigate how different neighborhood generation strategies can impact the quality of the explanations. We conduct offline experiments and show that our proposed adaptation is a promising alternative since it is comparable in terms of fidelity, i.e., can locally mimic the behavior of a complex recommender, and has the additional advantage of enabling different styles of explanations. Finally, we show that the user’s consumption history is the neighborhood strategy that best suits our approach.
Keywords: Sistemas de Recomendação
Explicações de Recomendações
Interpretabilidade
Fatoração de Matrizes
Apredizabem Profunda
Recommender Systems
Recommendation Explanations
Interpretability
Matrix Factorization
Deep Learning
???metadata.dc.subject.cnpq???: Ciência da Computação
URI: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
Appears in Collections:Doutorado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
CAIO SANTOS BEZERRA NÓBREGA - TESE (PPGCC) 2021.pdfCaio Santos Bezerra Nóbrega - Tese (PPGCC) 2021.2.39 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.