DSpace Repository

Análise de técnicas de explicabilidade em redes neurais convolucionais para diagnóstico de glaucoma, retinopatia diabética e catarata.

Show simple item record

dc.creator.ID SILVA, W. M. pt_BR
dc.contributor.advisor1 GOMES, Herman Martins.
dc.contributor.advisor1ID GOMES, H. M. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/4223020694433271 pt_BR
dc.contributor.referee1 MARINHO, Leandro Balby.
dc.contributor.referee1ID MARINHO, L. B. pt_BR
dc.contributor.referee1Lattes http://lattes.cnpq.br/3728312501032061 pt_BR
dc.contributor.referee2 BRASILEIRO, Francisco Vilar.
dc.contributor.referee2ID BRASILEIRO, F. V. pt_BR
dc.contributor.referee2Lattes http://lattes.cnpq.br/5957855817378897 pt_BR
dc.description.resumo Doenças oftalmológicas, como catarata, glaucoma e retinopatia diabética, representam um desafio significativo para a saúde pública, com potencial de causar perda de visão. No entanto, a maioria desses casos poderia ser evitada ou tratada se diagnosticada precocemente. Neste contexto, a imagem de fundo de olho surge como uma ferramenta de diagnóstico eficaz, rápida e não invasiva. A interpretação manual de imagens oftalmológicas é repetitiva e sujeita a erros. Assim, sistemas computacionais podem ser utilizados para auxiliar os profissionais na triagem automatizada, reduzindo tempo, erros e esforço na análise das doenças. Os sistemas de aprendizado profundo provaram ser eficazes nesse contexto, entretanto, sua falta de transparência tem sido um desafio para a adoção clínica, o que destaca a importância da explicabilidade nos modelos de aprendizado de máquina. Este estudo contribui para o avanço da compreensão e interpre-tação de modelos de aprendizado profundo na área da saúde ocular, visando melhorar o diagnóstico e tratamento de condições oftalmológicas. Ele compara as técnicas LIME e Grad-CAM aplicadas a diferentes arquiteturas de redes neurais convolucionais (CNNs) treinadas para classificar condições oftalmológicas a partir de imagens de fundo de olho. Os resultados indicam que o modelo VGG16 se destaca, alcançando uma acurácia de 93,17% no treinamento e 87,16% na validação. Além disso, as técnicas de explicabilidade, embora distintas em abordagem, identificaram quase as mesmas regiões de interesse nas imagens oftalmológicas. Ainda assim, apesar de haver limitações, como a aleatoriedade do LIME e a necessidade de ajustes no Grad-CAM, o LIME destacou áreas críticas de forma mais sutil, enquanto o Grad-CAM forneceu representações visuais mais diretas e intuitivas. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Análise de técnicas de explicabilidade em redes neurais convolucionais para diagnóstico de glaucoma, retinopatia diabética e catarata. pt_BR
dc.date.issued 2024-05-15
dc.description.abstract Ophthalmic diseases, such as cataracts, glaucoma, and diabetic retinopathy, pose a significant challenge to public health, with the potential to cause vision loss. However, the majority of these cases could be prevented or treated if diagnosed early. In this context, fundus imaging emerges as an effective, fast and non-invasive diagnosis tool. Manual interpretation of ophthalmic images is repetitive and prone to error. Thus, computational systems can be used to assist professionals in automated screening, reducing time, errors, and effort in disease analysis. Deep learning systems have proven effective in this context, however, their lack of transparency has been a challenge for clinical adoption, highlighting the importance of explainability in machine learning models. This study contributes to advancing the understanding and interpretation of deep learning models in the field of ocular health, aiming to improve the diagnosis and treatment of ophthalmic conditions. It compares the LIME and Grad-CAM techniques applied to different architectures of convolutional neural networks (CNNs) trained to classify ophthalmic conditions from fundus images. The results indicate that the VGG16 model stands out, achieving an accuracy of 93.17% in training and 87.16% in validation. Additionally, explainability techniques, though distinct in approach, identified nearly the same regions of interest in ophthalmic images. Nevertheless, despite limitations such as the randomness of LIME and the need for adjustments in Grad-CAM, LIME highlighted critical areas more subtly, while Grad-CAM provided more direct and intuitive visual representations. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38358
dc.date.accessioned 2024-10-08T18:01:48Z
dc.date.available 2024-10-08
dc.date.available 2024-10-08T18:01:48Z
dc.type Trabalho de Conclusão de Curso pt_BR
dc.subject Inteligência Artificial pt_BR
dc.subject Redes Neurais Convolucionais pt_BR
dc.subject Explicabilidade pt_BR
dc.subject Saúde Ocular pt_BR
dc.subject Diagnóstico por Imagem pt_BR
dc.subject Artificial Intelligence pt_BR
dc.subject Convolutional Neural Networks pt_BR
dc.subject Explainability pt_BR
dc.subject Ocular Health pt_BR
dc.subject Image Diagnosis pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator SILVA, Wendson Magalhães da.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Analysis of explainability techniques in convolutional neural networks for diagnosing glaucoma, diabetic retinopathy and cataracts. pt_BR
dc.identifier.citation SILVA, Wendson Magalhães da. Análise de técnicas de explicabilidade em redes neurais convolucionais para diagnóstico de glaucoma, retinopatia diabética e catarata. 2024. 19 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38358 pt_BR


Files in this item

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Advanced Search

Browse

My Account