DSpace/Manakin Repository

Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.

Mostrar registro simples

dc.creator.ID NÓBREGA, C. S. B. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/8188640293164060 pt_BR
dc.contributor.advisor1 MARINHO, Leandro Balby.
dc.contributor.advisor1ID MARINHO, L. B. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/3728312501032061 pt_BR
dc.contributor.referee1 CAMPELO, Cláudio Elízio Calazans.
dc.contributor.referee2 ANDRADE, Nazareno Ferreira de.
dc.contributor.referee3 MOURA, Edleno Silva de.
dc.contributor.referee4 MANZATO, Marcelo Garcia.
dc.description.resumo O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.program PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. pt_BR
dc.date.issued 2021-02-05
dc.description.abstract The increase in sophistication and complexity of Machine Learning (ML) models has turned them into black boxes where the reasoning behind their predictions is hard to understand by humans. Even for low-risk tasks such as movie recommendation, show why a recommendation was made has become a key requirement since it can potentially improve users’ trust and help them to make better decisions. In this sense, there is a growing need to equip such models with interpretability in order to make them clear or easy to understand. A popular approach to achieve this goal is known as post-hoc interpretability, which consists of separating the process of generating explanations from the complex model, i.e, adding a layer of interpretability on top of it. In this thesis, we propose to investigate post-hoc interpretability methods for complex recommender systems. In particular, we propose an adaptation of LIME (Local Interpretable Model-agnostic Explanations), a popular post-hoc interpretability method, whose objective is to learn an interpretable model, under a space of interpretable features in the neighborhood of the instance being predicted. In addition, we investigate how different neighborhood generation strategies can impact the quality of the explanations. We conduct offline experiments and show that our proposed adaptation is a promising alternative since it is comparable in terms of fidelity, i.e., can locally mimic the behavior of a complex recommender, and has the additional advantage of enabling different styles of explanations. Finally, we show that the user’s consumption history is the neighborhood strategy that best suits our approach. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
dc.date.accessioned 2021-06-21T20:52:29Z
dc.date.available 2021-06-21
dc.date.available 2021-06-21T20:52:29Z
dc.type Tese pt_BR
dc.subject Sistemas de Recomendação pt_BR
dc.subject Explicações de Recomendações pt_BR
dc.subject Interpretabilidade pt_BR
dc.subject Fatoração de Matrizes pt_BR
dc.subject Apredizabem Profunda pt_BR
dc.subject Recommender Systems pt_BR
dc.subject Recommendation Explanations pt_BR
dc.subject Interpretability pt_BR
dc.subject Matrix Factorization pt_BR
dc.subject Deep Learning pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator NÓBREGA, Caio Santos Bezerra.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Generation of explanations for recommendation systems via interpretable local models. pt_BR
dc.identifier.citation NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525 pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta