dc.creator.ID |
SOUSA, R. P. |
pt_BR |
dc.creator.Lattes |
http://lattes.cnpq.br/3300067187001570 |
pt_BR |
dc.contributor.advisor1 |
CARVALHO, João Marques de. |
|
dc.contributor.advisor1ID |
CARVALHO, J. M. |
pt_BR |
dc.contributor.advisor1Lattes |
http://lattes.cnpq.br/1398733763837178 |
pt_BR |
dc.contributor.advisor2 |
ASSIS, Francisco Marcos de. |
|
dc.contributor.advisor2ID |
ASSIS, F. M. |
pt_BR |
dc.contributor.advisor2Lattes |
http://lattes.cnpq.br/2368523362272656 |
pt_BR |
dc.contributor.referee1 |
BANON, Gerard Jean Francis. |
|
dc.contributor.referee2 |
MASCARENHAS, Nelson Delfino D'avila. |
|
dc.description.resumo |
O principal objetivo desta tese é o desenvolvimento de um método analítico para projeto
de operadores invariantes à translação via treinamento de redes neurais. Uma nova
arquitetura de rede neural, denominada Rede Neural Modular Morfológica (RNMM),
é definida através de um resultado fundamental em representações mínimas para mapeamentos
de conjuntos invariantes à translação via morfologia matemática, proposto
por Banon e Barrera (1991). A arquitetura geral da RNMM é capaz de aprender operadores
invariantes à translação, tanto do tipo binário como em níveis de cinza. Para o
seu treinamento, são utilizadas idéias do algoritmo de retro-propagação do erro (RP)
e a metodologia proposta por Pessoa e Maragos (1997) para superar o problema de
não-diferenciabilidade das funções posto. Também é desenvolvido um treinamento alternativo
da RNMM via algoritmos genéticos (AG) e realizada uma análise comparativa
dos treinamentos RP e AG em problemas de restauração de imagens e reconhecimento
de padrões. A estrutura da RNMM pode ser vista como um caso especial da rede neural
morfológica/posto/linear (RN-MPL) proposta por Pessoa e Maragos (1997), mas com
arquitetura e regras de treinamento próprias. O bom desempenho dos treinamentos
RP e GA propostos é encorajador, oferecendo uma ferramenta alternativa de projeto
para a importante classe de operadores invariantes à translação. |
pt_BR |
dc.publisher.country |
Brasil |
pt_BR |
dc.publisher.department |
Centro de Engenharia Elétrica e Informática - CEEI |
pt_BR |
dc.publisher.program |
PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA |
pt_BR |
dc.publisher.initials |
UFCG |
pt_BR |
dc.subject.cnpq |
Engenharia elétrica |
|
dc.title |
Projetos de operadores invariantes à translação via treinamento de redes neurais. |
pt_BR |
dc.date.issued |
2000-02 |
|
dc.description.abstract |
The main objective of this thesis is to develop an analytic method for designing
translation-invariant operators via neural network training. A new neural network
architecture, called Modular Morphological Neural Network (MMNN), is defined using
a fundamental result of minimal representations for translation-invariant set mappings
via Mathematical Morphology, proposed by Banon and Barrera (1991). The MMNN
general architecture is capable of learning both binary and gray-scale translationinvariant
operators. For its training, ideas of the Back-Propagation (BP) algorithm
and the methodology proposed by Pessoa and Maragos (1997) for overcoming the
problem of non-differentiability of rank functions are used. Also is developped an
alternative MMNN training method via Genetic Algorithms (GA), and provide a comparative
analysis of BP vs. GA training in problems of image restoration and pattern
recognition. The MMNN structure can be viewed as a special case of the Morphological/
Rank/Linear Neural Network (MRL-NN) proposed by Pessoa and Maragos (1997),
but with specific architecture and training rules. The effectiveness of the proposed
BP and GA training algorithms for MMNNs is encouraging, offering alternative design
tools for the important class of translation-invariant operators. |
pt_BR |
dc.identifier.uri |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/3467 |
|
dc.date.accessioned |
2019-04-15T16:26:01Z |
|
dc.date.available |
2019-04-15 |
|
dc.date.available |
2019-04-15T16:26:01Z |
|
dc.type |
Tese |
pt_BR |
dc.subject |
Redes neurais |
|
dc.subject |
Redes neuronales |
|
dc.subject |
Neural networks |
|
dc.subject |
Morfologia matemática |
|
dc.subject |
Mathematical morphology |
|
dc.subject |
Algoritmos genéticos |
|
dc.subject |
Genetic Algorithms |
|
dc.subject |
Retro-propagação do erro |
|
dc.subject |
Error back propagation |
|
dc.subject |
Error de propagación |
|
dc.rights |
Acesso Aberto |
pt_BR |
dc.creator |
SOUSA, Robson Pequeno de. |
|
dc.publisher |
Universidade Federal de Campina Grande |
pt_BR |
dc.language |
por |
pt_BR |
dc.title.alternative |
Operators invariant to translation through training of neural networks. |
pt_BR |
dc.identifier.citation |
SOUSA, Robson Pequeno de. 2000. 115f. (Dissertação de Mestrado em Engenharia Elétrica), Curso de Pós-Graduação em Engenharia Elétrica, Centro de Engenharia Elétrica e Informática, Universidade Federal da Paraíba – Campus II - Campina Grande - PB - Brasil, 2000. |
pt_BR |