DSpace/Manakin Repository

Projetos de operadores invariantes à translação via treinamento de redes neurais.

Mostrar registro simples

dc.creator.ID SOUSA, R. P. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/3300067187001570 pt_BR
dc.contributor.advisor1 CARVALHO, João Marques de.
dc.contributor.advisor1ID CARVALHO, J. M. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/1398733763837178 pt_BR
dc.contributor.advisor2 ASSIS, Francisco Marcos de.
dc.contributor.advisor2ID ASSIS, F. M. pt_BR
dc.contributor.advisor2Lattes http://lattes.cnpq.br/2368523362272656 pt_BR
dc.contributor.referee1 BANON, Gerard Jean Francis.
dc.contributor.referee2 MASCARENHAS, Nelson Delfino D'avila.
dc.description.resumo O principal objetivo desta tese é o desenvolvimento de um método analítico para projeto de operadores invariantes à translação via treinamento de redes neurais. Uma nova arquitetura de rede neural, denominada Rede Neural Modular Morfológica (RNMM), é definida através de um resultado fundamental em representações mínimas para mapeamentos de conjuntos invariantes à translação via morfologia matemática, proposto por Banon e Barrera (1991). A arquitetura geral da RNMM é capaz de aprender operadores invariantes à translação, tanto do tipo binário como em níveis de cinza. Para o seu treinamento, são utilizadas idéias do algoritmo de retro-propagação do erro (RP) e a metodologia proposta por Pessoa e Maragos (1997) para superar o problema de não-diferenciabilidade das funções posto. Também é desenvolvido um treinamento alternativo da RNMM via algoritmos genéticos (AG) e realizada uma análise comparativa dos treinamentos RP e AG em problemas de restauração de imagens e reconhecimento de padrões. A estrutura da RNMM pode ser vista como um caso especial da rede neural morfológica/posto/linear (RN-MPL) proposta por Pessoa e Maragos (1997), mas com arquitetura e regras de treinamento próprias. O bom desempenho dos treinamentos RP e GA propostos é encorajador, oferecendo uma ferramenta alternativa de projeto para a importante classe de operadores invariantes à translação. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.program PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Engenharia elétrica
dc.title Projetos de operadores invariantes à translação via treinamento de redes neurais. pt_BR
dc.date.issued 2000-02
dc.description.abstract The main objective of this thesis is to develop an analytic method for designing translation-invariant operators via neural network training. A new neural network architecture, called Modular Morphological Neural Network (MMNN), is defined using a fundamental result of minimal representations for translation-invariant set mappings via Mathematical Morphology, proposed by Banon and Barrera (1991). The MMNN general architecture is capable of learning both binary and gray-scale translationinvariant operators. For its training, ideas of the Back-Propagation (BP) algorithm and the methodology proposed by Pessoa and Maragos (1997) for overcoming the problem of non-differentiability of rank functions are used. Also is developped an alternative MMNN training method via Genetic Algorithms (GA), and provide a comparative analysis of BP vs. GA training in problems of image restoration and pattern recognition. The MMNN structure can be viewed as a special case of the Morphological/ Rank/Linear Neural Network (MRL-NN) proposed by Pessoa and Maragos (1997), but with specific architecture and training rules. The effectiveness of the proposed BP and GA training algorithms for MMNNs is encouraging, offering alternative design tools for the important class of translation-invariant operators. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/3467
dc.date.accessioned 2019-04-15T16:26:01Z
dc.date.available 2019-04-15
dc.date.available 2019-04-15T16:26:01Z
dc.type Tese pt_BR
dc.subject Redes neurais
dc.subject Redes neuronales
dc.subject Neural networks
dc.subject Morfologia matemática
dc.subject Mathematical morphology
dc.subject Algoritmos genéticos
dc.subject Genetic Algorithms
dc.subject Retro-propagação do erro
dc.subject Error back propagation
dc.subject Error de propagación
dc.rights Acesso Aberto pt_BR
dc.creator SOUSA, Robson Pequeno de.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Operators invariant to translation through training of neural networks. pt_BR
dc.identifier.citation SOUSA, Robson Pequeno de. 2000. 115f. (Dissertação de Mestrado em Engenharia Elétrica), Curso de Pós-Graduação em Engenharia Elétrica, Centro de Engenharia Elétrica e Informática, Universidade Federal da Paraíba – Campus II - Campina Grande - PB - Brasil, 2000. pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta