dc.creator.ID |
SANTOS, M. L. O. |
pt_BR |
dc.creator.Lattes |
http://lattes.cnpq.br/1426948852953123 |
pt_BR |
dc.contributor.advisor1 |
CAMPELO, Cláudio Elízio Calazans. |
|
dc.contributor.advisor1ID |
CAMPELO, C. E. C. |
pt_BR |
dc.contributor.advisor1Lattes |
http://lattes.cnpq.br/2042247762832979 |
pt_BR |
dc.contributor.referee1 |
BAPTISTA, Cláudio de Souza. |
|
dc.contributor.referee1ID |
BAPTISTA, C. S. |
pt_BR |
dc.contributor.referee1Lattes |
http://lattes.cnpq.br/0104124422364023 |
pt_BR |
dc.contributor.referee2 |
BRASILEIRO, Francisco Vilar. |
|
dc.contributor.referee2ID |
BRASILEIRO, F. V. |
pt_BR |
dc.contributor.referee2Lattes |
http://lattes.cnpq.br/5957855817378897 |
pt_BR |
dc.description.resumo |
Embora os grandes modelos de linguagem (LLMs) representem uma revolução na forma como
interagimos com computadores, permitindo a construção de perguntas complexas e a capacidade de
raciocinar sobre uma sequência de declarações, seu uso é restrito devido à necessidade de hardware
dedicado para a execução. Neste estudo, avaliamos o desempenho de LLMs baseados nos modelos
LLaMA de 7 e 13 bilhões, submetidos a um processo de quantização e executados em hardware
doméstico. Os modelos considerados foram alpaca, koala e vicuna. Para avaliar a eficácia desses
modelos, desenvolvemos um banco de dados contendo 1006 perguntas do ENEM (Exame Nacional
do Ensino Médio). Nossa análise revelou que o modelo de melhor desempenho alcançou uma
acurácia de aproximadamente 40% tanto para os textos originais das perguntas em português quanto
para suas traduções em inglês. Além disso, avaliamos a eficiência computacional dos modelos
medindo o tempo necessário para a execução. Em média, os LLMs de 7 e 13 bilhões levaram
aproximadamente 20 e 50 segundos, respectivamente, para processar as consultas em uma máquina
equipada com um processador AMD Ryzen 5 3600x. |
pt_BR |
dc.publisher.country |
Brasil |
pt_BR |
dc.publisher.department |
Centro de Engenharia Elétrica e Informática - CEEI |
pt_BR |
dc.publisher.initials |
UFCG |
pt_BR |
dc.subject.cnpq |
Ciência da Computação. |
pt_BR |
dc.title |
Avaliação de grandes modelos de linguagem quantizados na resolução de questões do ENEM. |
pt_BR |
dc.date.issued |
2023-06-28 |
|
dc.description.abstract |
Although large language models (LLMs) represent a revolution in the way we interact with computers
allowing the construction of complex questions and the ability to reason over a sequence of
statements, their use is restricted due to the need for dedicated hardware for execution. In this study
we evaluate the performance of LLMs based on the 7 and 13 billion LLaMA models, subjected to a
quantization process and run on home hardware. The models considered were alpaca, koala, and
vicuna. To evaluate the effectiveness of these models, we developed a database containing 1006
questions from the ENEM (National High School Exam). Our analysis revealed that the best
performing model achieved an accuracy of approximately 40% for both the original texts of the
Portuguese questions and their English translations. In addition, we evaluated the computational
efficiency of the models by measuring the time required for execution. On average, the 7 and 13
billion LLMs took approximately 20 and 50 seconds, respectively, to process the queries on a machine
equipped with an AMD Ryzen 5 3600x processor. |
pt_BR |
dc.identifier.uri |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/33359 |
|
dc.date.accessioned |
2023-12-04T20:21:15Z |
|
dc.date.available |
2023-12-04 |
|
dc.date.available |
2023-12-04T20:21:15Z |
|
dc.type |
Trabalho de Conclusão de Curso |
pt_BR |
dc.subject |
Grande modelos de linguagem |
pt_BR |
dc.subject |
LLMs |
pt_BR |
dc.subject |
ENEM |
pt_BR |
dc.subject |
LLaMA - modelo de linguagem |
pt_BR |
dc.subject |
Quantização |
pt_BR |
dc.subject |
Questões do ENEM |
pt_BR |
dc.subject |
Great language models |
pt_BR |
dc.subject |
AND EITHER |
pt_BR |
dc.subject |
LLaMA - language model |
pt_BR |
dc.subject |
Quantization |
pt_BR |
dc.subject |
ENEM questions |
pt_BR |
dc.rights |
Acesso Aberto |
pt_BR |
dc.creator |
SANTOS, Matheus Lisboa Oliveira dos. |
|
dc.publisher |
Universidade Federal de Campina Grande |
pt_BR |
dc.language |
por |
pt_BR |
dc.title.alternative |
Benchmarking quantized LLaMa-based models on the Brazilian Secondary School Exam - ENEM. |
pt_BR |
dc.identifier.citation |
SANTOS, Matheus Lisboa Oliveira dos. Avaliação de grandes modelos de linguagem quantizados na resolução de questões do ENEM. 2023. 12f. (Trabalho de Conclusão de Curso - Artigo), Curso de Bacharelado em Ciência da Computação, Centro de Engenharia Elétrica e Informática , Universidade Federal de Campina Grande – Paraíba - Brasil, 2023. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/33359 |
pt_BR |