Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/36528
Title: An investigation of neural architecture search in the context of deep multi-task learning.
Other Titles: Uma investigação da busca de arquitetura neural no contexto de aprendizagem multitarefa profunda.
???metadata.dc.creator???: GADELHA, Guilherme Monteiro.
???metadata.dc.contributor.advisor1???: GOMES, Herman Martins.
???metadata.dc.contributor.advisor2???: BATISTA, Leonardo Vidal.
???metadata.dc.contributor.referee1???: ARAÚJO , Tiago Maritan Ugulino de.
???metadata.dc.contributor.referee2???: PAIVA , Anselmo Cardoso de.
???metadata.dc.contributor.referee3???: MARINHO , Leandro Balby.
???metadata.dc.contributor.referee4???: PEREIRA , Eanes Torres.
Keywords: Neural architecture search;Multi-task learning;Image classification;Pesquisa de arquitetura neural;Aprendizagem multitarefa;Classificação de imagens
Issue Date: 29-Jan-2024
Publisher: Universidade Federal de Campina Grande
Citation: GADELHA, Guilherme Monteiro. An investigation of neural architecture search in the context of deep multi-task learning. 2024. 105 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2024.
???metadata.dc.description.resumo???: O aprendizado multitarefa (MTL) é um paradigma de design para redes neurais que visa melhorar a generalização enquanto resolve múltiplas tarefas simultaneamente em uma única rede. A MTL tem tido sucesso em vários campos, como Processamento de Linguagem Natural, Reconhecimento de Fala, Visão Computacional e Descoberta de Medicamentos. Neural Architecture Search (NAS) é um subcampo do Deep Learning que propõe métodos para projetar redes neurais automaticamente, pesquisando e organizando camadas e blocos para maximizar uma função objetivo. Atualmente, existem poucos métodos na literatura que exploram o uso de NAS para construção de redes MTL. Neste contexto, este trabalho investiga uma sequência de experimentos comparativos entre redes multitarefa, redes monotarefa e redes criadas com uma estratégia de busca de arquitetura neural. Esses experimentos visam compreender melhor as diferenças entre esses paradigmas de projeto de redes neurais e comparar os resultados alcançados por cada um. Investigamos arquiteturas de redes neurais para diferentes casos de uso, como o conjunto de dados ICAO-FVC, conjuntos de dados MNIST, FASHION-MNIST, Celeb-A e CIFAR-10. Além disso, testamos um conjunto de dados bem estabelecido de NAS para avaliar novos métodos propostos em campo. Nossos experimentos revelaram que a técnica NAS, desenvolvida através do Reinforcement Learning, é capaz de descobrir arquiteturas ótimas em um tempo menor do que a atual técnica de última geração baseada na Evolução Regularizada. Além disso, esta técnica demonstrou resultados competitivos em vários conjuntos de dados de aprendizagem multitarefa, em termos de acurácia e equal error rate. Embora possa não ter o melhor desempenho no caso do ICAO-FVC, ainda oferece um resultado competitivo e tem o potencial de descobrir arquiteturas ainda melhores do que a melhor feita à mão.
Abstract: Multi-task learning (MTL) is a design paradigm for neural networks that aims to improve generalization while solving multiple tasks simultaneously in a single network. MTL has been successful in various fields such as Natural Language Processing, Speech Recognition, Computer Vision, and Drug Discovery. Neural Architecture Search (NAS) is a subfield of Deep Learning that proposes methods to automatically design neural networks by searching and arranging layers and blocks to maximize an objective function. Currently, there are few methods in the literature that explore the use of NAS to build MTL networks. In this context, this work investigates a sequence of comparative experiments between multi-task networks, single-task networks, and networks created with a neural architecture search strategy. These experiments aim to understand better the differences between these paradigms of neural network design and compare the results achieved by each. We investigated neural network architectures for different use cases, such as the ICAO-FVC dataset, MNIST, FASHION-MNIST, Celeb-A, and CIFAR-10 datasets. Additionally, we experimented with a well-established dataset of NAS to benchmark new proposed methods in the field. Our experiments have revealed that the NAS technique, developed through Reinforcement Learning, is capable of discovering optimal architectures in a shorter time than the current state-of-theart technique based on Regularized Evolution. Furthermore, this technique has demonstrated competitive results across various datasets of multi-task learning, in terms of accuracy and equal error rate. While it may not be the top performer in the case of ICAO-FVC, it still delivers a competitive outcome and holds the potential to uncover even better architectures than the best handcrafted one.
Keywords: Neural architecture search
Multi-task learning
Image classification
Pesquisa de arquitetura neural
Aprendizagem multitarefa
Classificação de imagens
???metadata.dc.subject.cnpq???: Ciência da Computação.
URI: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/36528
Appears in Collections:Doutorado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
GUILHERME MONTEIRO GADELHA – TESE (PPGCC) 2024.pdf4.23 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.