Please use this identifier to cite or link to this item:
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27424
Title: | Análise comparativa de implementações em FPGA de uma aplicação de aprendizagem de máquina utilizando a Aritmética Posit e o Padrão IEEE-754. |
Other Titles: | Comparative analysis of FPGA implementations of a machine learning application using Posit Arithmetic and the IEEE-754 Standard. |
???metadata.dc.creator???: | SOUSA, Marley Lobão de. |
???metadata.dc.contributor.advisor1???: | SANTOS JÚNIOR, Gutemberg Gonçalves dos. |
???metadata.dc.contributor.referee1???: | MORAIS, Marcos Ricardo Alcântara. |
Keywords: | Aprendizagem de máquina;Aritmética Posit;Padrão IEEE-754;Posit;Sintetizador do Intel Quartus Prime;Redes neurais - posit;Field Programmable Gate Array - FPGA;FPGA - Field Programmable Gate Array;Sistemas de representação numérica;Aceleradores de hardware;Função sigmoide;Machine learning;Posit Arithmetic;IEEE-754 Standard;Posit;Intel Quartus Prime Synthesizer;Neural networks - posit;Field Programmable Gate Array - FPGA;FPGA - Field Programmable Gate Array;Numerical representation systems;Hardware accelerators;Sigmoid function |
Issue Date: | 7-Apr-2022 |
Publisher: | Universidade Federal de Campina Grande |
Citation: | SOUSA, Marley Lobão de. Análise comparativa de implementações em FPGA de uma aplicação de aprendizagem de máquina utilizando a Aritmética Posit e o Padrão IEEE-754. 2022.60 f. (Trabalho de Conclusão de Curso - Monografia), Curso de Bacharelado em Engenharia Elétrica, Centro de Engenharia Elétrica e Informática , Universidade Federal de Campina Grande – Paraíba - Brasil, 2022. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27424 |
???metadata.dc.description.resumo???: | Esse projeto apresenta uma comparação entre diferentes representações numéricas de computadores em termos do número de células lógicas, tempo e potência, ao serem aplicadas a módulos de aprendizagem de máquina apenas no cenário de FPGA. Efetuou-se a comparação por meio da análise de razões entre as características do hardware gerado pelo sintetizador do Intel® Quartus® Prime. Dessa forma, validações foram realizadas em relação a quantidade de elementos lógicos e frequência máxima alcançada, ao se utilizar blocos aritméticos de soma e multiplicação. Além disso, o treino de redes neurais por meio de Posits ou ponto fixo, ambos com 16 bits para representação, produzindo a mesma acurácia final também foi validada. Ao comparar consumo de potência entre Posits e floats com a mesma quantidade de bits, o Posit não se mostrou tão vantajoso. Porém, comparando consumo de potência entre Posits e floats, com os floats possuindo uma maior quantidade de bits, os resultados se mostraram muito promissores para a aritmética Posit. Contudo, para a aplicação de rede neural, as métricas de elementos lógicos, tempo e potência apresentaram melhores resultados para o Posit, a medida em que se aumentou a quantidade total de bits para representação. Portanto, no contexto de FPGA a aritmética Posit possui um maior custo de recursos, o que pode nortear a decisão de uso ou não de aceleradores de hardware na aplicação de interesse. |
Abstract: | This project presents a comparison between different numerical representations of computers in terms of the number of logic cells, time and power, when applied to machine learning modules only in the FPGA context. Comparison was made by analysis of the ratio between the characteristics of the hardware generated by the Intel® Quartus® Prime synthesizer. This way, validations were made in relation to the quantity of logical elements and maximum frequency reached, when using adder and multiplier arithmetic blocks. In addition, the training of neural networks by means of Posits or fixed point, both with 16 bits for representation, producing the same final accuracy was also validated. When comparing power consumption between Posits and floats with the same amount of bits, Posit did not prove to be as advantageous. However, comparing power consumption between Posits and floats, with the floats having a larger amount of bits, the results proved very promising for Posit arithmetic. However, for the neural network application, the logic elements, time, and power metrics showed better results for Posit as the total amount of bits for representation was increased. Therefore, in the FPGA context Posit arithmetic has a higher resource cost, which may guide the decision of whether or not to use hardware accelerators in the application of interest. |
Keywords: | Aprendizagem de máquina Aritmética Posit Padrão IEEE-754 Posit Sintetizador do Intel Quartus Prime Redes neurais - posit Field Programmable Gate Array - FPGA FPGA - Field Programmable Gate Array Sistemas de representação numérica Aceleradores de hardware Função sigmoide Machine learning Posit Arithmetic IEEE-754 Standard Posit Intel Quartus Prime Synthesizer Neural networks - posit Field Programmable Gate Array - FPGA FPGA - Field Programmable Gate Array Numerical representation systems Hardware accelerators Sigmoid function |
???metadata.dc.subject.cnpq???: | Engenharia Elétrica. |
URI: | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27424 |
Appears in Collections: | Curso de Bacharelado em Engenharia Elétrica - CEEI - Monografias |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
MARLEY LOBÃO DE SOUSA - TCC ENG. ELÉTRICA CEEI 2022.pdf | Marley Lobão de Sousa -TCC Eng. Elétrica CEEI 2022. | 1.6 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.