Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27424
Title: Análise comparativa de implementações em FPGA de uma aplicação de aprendizagem de máquina utilizando a Aritmética Posit e o Padrão IEEE-754.
Other Titles: Comparative analysis of FPGA implementations of a machine learning application using Posit Arithmetic and the IEEE-754 Standard.
???metadata.dc.creator???: SOUSA, Marley Lobão de.
???metadata.dc.contributor.advisor1???: SANTOS JÚNIOR, Gutemberg Gonçalves dos.
???metadata.dc.contributor.referee1???: MORAIS, Marcos Ricardo Alcântara.
Keywords: Aprendizagem de máquina;Aritmética Posit;Padrão IEEE-754;Posit;Sintetizador do Intel Quartus Prime;Redes neurais - posit;Field Programmable Gate Array - FPGA;FPGA - Field Programmable Gate Array;Sistemas de representação numérica;Aceleradores de hardware;Função sigmoide;Machine learning;Posit Arithmetic;IEEE-754 Standard;Posit;Intel Quartus Prime Synthesizer;Neural networks - posit;Field Programmable Gate Array - FPGA;FPGA - Field Programmable Gate Array;Numerical representation systems;Hardware accelerators;Sigmoid function
Issue Date: 7-Apr-2022
Publisher: Universidade Federal de Campina Grande
Citation: SOUSA, Marley Lobão de. Análise comparativa de implementações em FPGA de uma aplicação de aprendizagem de máquina utilizando a Aritmética Posit e o Padrão IEEE-754. 2022.60 f. (Trabalho de Conclusão de Curso - Monografia), Curso de Bacharelado em Engenharia Elétrica, Centro de Engenharia Elétrica e Informática , Universidade Federal de Campina Grande – Paraíba - Brasil, 2022. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27424
???metadata.dc.description.resumo???: Esse projeto apresenta uma comparação entre diferentes representações numéricas de computadores em termos do número de células lógicas, tempo e potência, ao serem aplicadas a módulos de aprendizagem de máquina apenas no cenário de FPGA. Efetuou-se a comparação por meio da análise de razões entre as características do hardware gerado pelo sintetizador do Intel® Quartus® Prime. Dessa forma, validações foram realizadas em relação a quantidade de elementos lógicos e frequência máxima alcançada, ao se utilizar blocos aritméticos de soma e multiplicação. Além disso, o treino de redes neurais por meio de Posits ou ponto fixo, ambos com 16 bits para representação, produzindo a mesma acurácia final também foi validada. Ao comparar consumo de potência entre Posits e floats com a mesma quantidade de bits, o Posit não se mostrou tão vantajoso. Porém, comparando consumo de potência entre Posits e floats, com os floats possuindo uma maior quantidade de bits, os resultados se mostraram muito promissores para a aritmética Posit. Contudo, para a aplicação de rede neural, as métricas de elementos lógicos, tempo e potência apresentaram melhores resultados para o Posit, a medida em que se aumentou a quantidade total de bits para representação. Portanto, no contexto de FPGA a aritmética Posit possui um maior custo de recursos, o que pode nortear a decisão de uso ou não de aceleradores de hardware na aplicação de interesse.
Abstract: This project presents a comparison between different numerical representations of computers in terms of the number of logic cells, time and power, when applied to machine learning modules only in the FPGA context. Comparison was made by analysis of the ratio between the characteristics of the hardware generated by the Intel® Quartus® Prime synthesizer. This way, validations were made in relation to the quantity of logical elements and maximum frequency reached, when using adder and multiplier arithmetic blocks. In addition, the training of neural networks by means of Posits or fixed point, both with 16 bits for representation, producing the same final accuracy was also validated. When comparing power consumption between Posits and floats with the same amount of bits, Posit did not prove to be as advantageous. However, comparing power consumption between Posits and floats, with the floats having a larger amount of bits, the results proved very promising for Posit arithmetic. However, for the neural network application, the logic elements, time, and power metrics showed better results for Posit as the total amount of bits for representation was increased. Therefore, in the FPGA context Posit arithmetic has a higher resource cost, which may guide the decision of whether or not to use hardware accelerators in the application of interest.
Keywords: Aprendizagem de máquina
Aritmética Posit
Padrão IEEE-754
Posit
Sintetizador do Intel Quartus Prime
Redes neurais - posit
Field Programmable Gate Array - FPGA
FPGA - Field Programmable Gate Array
Sistemas de representação numérica
Aceleradores de hardware
Função sigmoide
Machine learning
Posit Arithmetic
IEEE-754 Standard
Posit
Intel Quartus Prime Synthesizer
Neural networks - posit
Field Programmable Gate Array - FPGA
FPGA - Field Programmable Gate Array
Numerical representation systems
Hardware accelerators
Sigmoid function
???metadata.dc.subject.cnpq???: Engenharia Elétrica.
URI: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27424
Appears in Collections:Curso de Bacharelado em Engenharia Elétrica - CEEI - Monografias

Files in This Item:
File Description SizeFormat 
MARLEY LOBÃO DE SOUSA - TCC ENG. ELÉTRICA CEEI 2022.pdfMarley Lobão de Sousa -TCC Eng. Elétrica CEEI 2022.1.6 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.