DSpace/Manakin Repository

Avaliação de grandes modelos de linguagem quantizados na resolução de questões do ENEM.

Mostrar registro simples

dc.creator.ID SANTOS, M. L. O. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/1426948852953123 pt_BR
dc.contributor.advisor1 CAMPELO, Cláudio Elízio Calazans.
dc.contributor.advisor1ID CAMPELO, C. E. C. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/2042247762832979 pt_BR
dc.contributor.referee1 BAPTISTA, Cláudio de Souza.
dc.contributor.referee1ID BAPTISTA, C. S. pt_BR
dc.contributor.referee1Lattes http://lattes.cnpq.br/0104124422364023 pt_BR
dc.contributor.referee2 BRASILEIRO, Francisco Vilar.
dc.contributor.referee2ID BRASILEIRO, F. V. pt_BR
dc.contributor.referee2Lattes http://lattes.cnpq.br/5957855817378897 pt_BR
dc.description.resumo Embora os grandes modelos de linguagem (LLMs) representem uma revolução na forma como interagimos com computadores, permitindo a construção de perguntas complexas e a capacidade de raciocinar sobre uma sequência de declarações, seu uso é restrito devido à necessidade de hardware dedicado para a execução. Neste estudo, avaliamos o desempenho de LLMs baseados nos modelos LLaMA de 7 e 13 bilhões, submetidos a um processo de quantização e executados em hardware doméstico. Os modelos considerados foram alpaca, koala e vicuna. Para avaliar a eficácia desses modelos, desenvolvemos um banco de dados contendo 1006 perguntas do ENEM (Exame Nacional do Ensino Médio). Nossa análise revelou que o modelo de melhor desempenho alcançou uma acurácia de aproximadamente 40% tanto para os textos originais das perguntas em português quanto para suas traduções em inglês. Além disso, avaliamos a eficiência computacional dos modelos medindo o tempo necessário para a execução. Em média, os LLMs de 7 e 13 bilhões levaram aproximadamente 20 e 50 segundos, respectivamente, para processar as consultas em uma máquina equipada com um processador AMD Ryzen 5 3600x. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação. pt_BR
dc.title Avaliação de grandes modelos de linguagem quantizados na resolução de questões do ENEM. pt_BR
dc.date.issued 2023-06-28
dc.description.abstract Although large language models (LLMs) represent a revolution in the way we interact with computers allowing the construction of complex questions and the ability to reason over a sequence of statements, their use is restricted due to the need for dedicated hardware for execution. In this study we evaluate the performance of LLMs based on the 7 and 13 billion LLaMA models, subjected to a quantization process and run on home hardware. The models considered were alpaca, koala, and vicuna. To evaluate the effectiveness of these models, we developed a database containing 1006 questions from the ENEM (National High School Exam). Our analysis revealed that the best performing model achieved an accuracy of approximately 40% for both the original texts of the Portuguese questions and their English translations. In addition, we evaluated the computational efficiency of the models by measuring the time required for execution. On average, the 7 and 13 billion LLMs took approximately 20 and 50 seconds, respectively, to process the queries on a machine equipped with an AMD Ryzen 5 3600x processor. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/33359
dc.date.accessioned 2023-12-04T20:21:15Z
dc.date.available 2023-12-04
dc.date.available 2023-12-04T20:21:15Z
dc.type Trabalho de Conclusão de Curso pt_BR
dc.subject Grande modelos de linguagem pt_BR
dc.subject LLMs pt_BR
dc.subject ENEM pt_BR
dc.subject LLaMA - modelo de linguagem pt_BR
dc.subject Quantização pt_BR
dc.subject Questões do ENEM pt_BR
dc.subject Great language models pt_BR
dc.subject AND EITHER pt_BR
dc.subject LLaMA - language model pt_BR
dc.subject Quantization pt_BR
dc.subject ENEM questions pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator SANTOS, Matheus Lisboa Oliveira dos.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Benchmarking quantized LLaMa-based models on the Brazilian Secondary School Exam - ENEM. pt_BR
dc.identifier.citation SANTOS, Matheus Lisboa Oliveira dos. Avaliação de grandes modelos de linguagem quantizados na resolução de questões do ENEM. 2023. 12f. (Trabalho de Conclusão de Curso - Artigo), Curso de Bacharelado em Ciência da Computação, Centro de Engenharia Elétrica e Informática , Universidade Federal de Campina Grande – Paraíba - Brasil, 2023. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/33359 pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta