Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363
Title: Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
Other Titles: Interpretability of convolutional neural networks with case study in diagnostic imaging.
???metadata.dc.creator???: MAIA, Matheus Gomes.
???metadata.dc.contributor.advisor1???: GOMES, Herman Martins.
???metadata.dc.contributor.referee1???: PEREIRA, Eanes Torres.
???metadata.dc.contributor.referee2???: AIRES, Kelson Romulo Teixeira.
Keywords: Inteligência artificial;Redes neurais convolucionais;Interpretabilidade de redes neurais convolucionais;Diagnóstico por imagem;Artificial intelligence;Convolutional neural networks;Interpretability of convolutional neural networks;Diagnosis by image
Issue Date: 14-Jun-2022
Publisher: Universidade Federal de Campina Grande
Citation: MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022.
???metadata.dc.description.resumo???: As redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais.
Abstract: Deep neural networks have enabled remarkable advances in image processing and analysis. The complexity resulting from the adoption of these Machine learning models, characterized by an increasing number of parameters, induce knowledge representations and decision flows that go beyond human understanding, especially when it comes to models used in visual tasks such as Convolutional Neural Networks. This research reviews and structures approaches and interpretability techniques, which aim to expose, in a understandable way, the workings or internal knowledge of these models convolutional. In this research, the objectives of the interpretability techniques and the characteristics of revised interpretable models From. The recent scientific debate on the evaluation of new interpretability techniques was presented and explored in a practical way in a case study. O This study was carried out in an unusual image niche for research that evaluates interpretability techniques, that of medical diagnosis, which proved to be challenging and rich in learning. The case study considers, end-to-end, the steps of training, interpretability and evaluation of the techniques, something that can be easily reproduced in other data sets. For the training stage two convolutional architectures were used trained on two composite sets. by images of medical exams, being these, thoracic X-ray and tomography of optical coherence (OCT). For the explanation step, ten interpretability techniques were used to produce explanations for the trained models. Finally, for the technique evaluation stage, the explanations were submitted to three evaluations: Guide to Disorders, Randomization of Labels and Pointing Game. Each evaluation brought challenges and lessons learned about its approaches and necessary resources. For example, the Guide to Disturbances assessment favors concise, but is hampered by an effect known as Şout of distribution entries, in addition to having a high processing cost. This dissertation aims to main contributions to the production of a narrative and propositional bibliographic review on the area of ​​interpretability of neural networks, including the discussion of topics such as taxonomy of approaches to interpretability and categorization of quantitative assessments of attribution techniques, in addition to a case study on evaluations of techniques that interpret Convolutional Neural Networks.
Keywords: Inteligência artificial
Redes neurais convolucionais
Interpretabilidade de redes neurais convolucionais
Diagnóstico por imagem
Artificial intelligence
Convolutional neural networks
Interpretability of convolutional neural networks
Diagnosis by image
???metadata.dc.subject.cnpq???: Ciência da Computação
URI: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363
Appears in Collections:Mestrado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
MATHEUS GOMES MAIA - DISSERTAÇÃO (PPGCC) 2022.pdfMatheus Gomes maia - Dissertação (PPGCC) 2022.28.93 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.