Please use this identifier to cite or link to this item:
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/3467
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.creator.ID | SOUSA, R. P. | pt_BR |
dc.creator.Lattes | http://lattes.cnpq.br/3300067187001570 | pt_BR |
dc.contributor.advisor1 | CARVALHO, João Marques de. | |
dc.contributor.advisor1ID | CARVALHO, J. M. | pt_BR |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/1398733763837178 | pt_BR |
dc.contributor.advisor2 | ASSIS, Francisco Marcos de. | |
dc.contributor.advisor2ID | ASSIS, F. M. | pt_BR |
dc.contributor.advisor2Lattes | http://lattes.cnpq.br/2368523362272656 | pt_BR |
dc.contributor.referee1 | BANON, Gerard Jean Francis. | |
dc.contributor.referee2 | MASCARENHAS, Nelson Delfino D'avila. | |
dc.description.resumo | O principal objetivo desta tese é o desenvolvimento de um método analítico para projeto de operadores invariantes à translação via treinamento de redes neurais. Uma nova arquitetura de rede neural, denominada Rede Neural Modular Morfológica (RNMM), é definida através de um resultado fundamental em representações mínimas para mapeamentos de conjuntos invariantes à translação via morfologia matemática, proposto por Banon e Barrera (1991). A arquitetura geral da RNMM é capaz de aprender operadores invariantes à translação, tanto do tipo binário como em níveis de cinza. Para o seu treinamento, são utilizadas idéias do algoritmo de retro-propagação do erro (RP) e a metodologia proposta por Pessoa e Maragos (1997) para superar o problema de não-diferenciabilidade das funções posto. Também é desenvolvido um treinamento alternativo da RNMM via algoritmos genéticos (AG) e realizada uma análise comparativa dos treinamentos RP e AG em problemas de restauração de imagens e reconhecimento de padrões. A estrutura da RNMM pode ser vista como um caso especial da rede neural morfológica/posto/linear (RN-MPL) proposta por Pessoa e Maragos (1997), mas com arquitetura e regras de treinamento próprias. O bom desempenho dos treinamentos RP e GA propostos é encorajador, oferecendo uma ferramenta alternativa de projeto para a importante classe de operadores invariantes à translação. | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.department | Centro de Engenharia Elétrica e Informática - CEEI | pt_BR |
dc.publisher.program | PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA | pt_BR |
dc.publisher.initials | UFCG | pt_BR |
dc.subject.cnpq | Engenharia elétrica | |
dc.title | Projetos de operadores invariantes à translação via treinamento de redes neurais. | pt_BR |
dc.date.issued | 2000-02 | |
dc.description.abstract | The main objective of this thesis is to develop an analytic method for designing translation-invariant operators via neural network training. A new neural network architecture, called Modular Morphological Neural Network (MMNN), is defined using a fundamental result of minimal representations for translation-invariant set mappings via Mathematical Morphology, proposed by Banon and Barrera (1991). The MMNN general architecture is capable of learning both binary and gray-scale translationinvariant operators. For its training, ideas of the Back-Propagation (BP) algorithm and the methodology proposed by Pessoa and Maragos (1997) for overcoming the problem of non-differentiability of rank functions are used. Also is developped an alternative MMNN training method via Genetic Algorithms (GA), and provide a comparative analysis of BP vs. GA training in problems of image restoration and pattern recognition. The MMNN structure can be viewed as a special case of the Morphological/ Rank/Linear Neural Network (MRL-NN) proposed by Pessoa and Maragos (1997), but with specific architecture and training rules. The effectiveness of the proposed BP and GA training algorithms for MMNNs is encouraging, offering alternative design tools for the important class of translation-invariant operators. | pt_BR |
dc.identifier.uri | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/3467 | |
dc.date.accessioned | 2019-04-15T16:26:01Z | |
dc.date.available | 2019-04-15 | |
dc.date.available | 2019-04-15T16:26:01Z | |
dc.type | Tese | pt_BR |
dc.subject | Redes neurais | |
dc.subject | Redes neuronales | |
dc.subject | Neural networks | |
dc.subject | Morfologia matemática | |
dc.subject | Mathematical morphology | |
dc.subject | Algoritmos genéticos | |
dc.subject | Genetic Algorithms | |
dc.subject | Retro-propagação do erro | |
dc.subject | Error back propagation | |
dc.subject | Error de propagación | |
dc.rights | Acesso Aberto | pt_BR |
dc.creator | SOUSA, Robson Pequeno de. | |
dc.publisher | Universidade Federal de Campina Grande | pt_BR |
dc.language | por | pt_BR |
dc.title.alternative | Operators invariant to translation through training of neural networks. | pt_BR |
dc.identifier.citation | SOUSA, Robson Pequeno de. 2000. 115f. (Dissertação de Mestrado em Engenharia Elétrica), Curso de Pós-Graduação em Engenharia Elétrica, Centro de Engenharia Elétrica e Informática, Universidade Federal da Paraíba – Campus II - Campina Grande - PB - Brasil, 2000. | pt_BR |
Appears in Collections: | Doutorado em Engenharia Elétrica. |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
ROBSON PEQUENO DE SOUSA - TESE PPGEE 2000.pdf | Robson Pequeno de Sousa - Dissertação PPGEE 2000 | 17.12 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.