DSpace/Manakin Repository

Avaliação de LLMS na resolução de questões do ENEM.

Mostrar registro simples

dc.creator.ID RAPOSO, L. B. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/7921625824750417 pt_BR
dc.contributor.advisor1 MORAIS, Fábio Jorge Almeida.
dc.contributor.advisor1ID MORAIS, F. J. A. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/0987042606840444 pt_BR
dc.contributor.referee1 PIRES, Carlos Eduardo Santos.
dc.contributor.referee1ID PIRES, C. E. S. pt_BR
dc.contributor.referee1Lattes http://lattes.cnpq.br/4986021622366786 pt_BR
dc.contributor.referee2 BRASILEIRO, Francisco Vilar.
dc.contributor.referee2ID BRASILEIRO, F. V. pt_BR
dc.contributor.referee2Lattes http://lattes.cnpq.br/5957855817378897 pt_BR
dc.description.resumo Grandes Modelos de Linguagem (LLMs do inglês, Large Language Models) surgiram como uma quebra de paradigma no uso da Inteligência Artificial (IA) e são amplamente usados em diferentes áreas. Um dos maiores responsáveis pela popularização desse termo é o ChatGPT, desenvolvido pela OpenAI. A partir da ascensão desse, outras empresas, como a Meta e a Google, desenvolveram seus próprios modelos como alternativas ao GPT. Essas ferramentas se apresentam como solução de problemas nos mais variados contextos. Entretanto, pouca atenção é voltada para medir a capacidade de corretude e eficiência de suas respostas. Somado a isso, a maioria dos estudos neste âmbito, se prendem ao contexto da língua inglesa, sem que os modelos sejam efetivamente testados em cenários globalizados. Logo, este estudo propõe submeter os sistemas da Meta, da OpenAI e da Google à avaliações de múltipla escolha objetivas sobre conteúdos de nível médio, por meio das provas do Exame Nacional do Ensino Médio (ENEM). Após colher as respostas dos modelos, análises foram realizadas, comparando desempenho, entre cada uma delas e com médias dos alunos brasileiros, considerando quantidade de acertos por prova. Então, surpreendentemente, este trabalho mostrou que todos os três modelos desempenharam melhor em áreas mais “subjetivas” que em áreas objetivas, indo contra o senso comum. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Avaliação de LLMS na resolução de questões do ENEM. pt_BR
dc.date.issued 2024-05-15
dc.description.abstract Large Language Models (LLMs) emerged as a paradigm shift in the use of Artificial Intelligence (AI) and are widely used in different areas. One of the most popularized models of this term is ChatGPT, developed by OpenAI. Since its rise, other companies, such as Meta and Google, have developed their own models as alternatives to GPT. These tools are presented as problem solving tools in a wide variety of contexts. However, little attention has been paid to measuring the correctness and efficiency of their responses. In addition, most studies in this area are limited to the English language context, without effectively testing the models in globalized scenarios. Therefore, this study proposes to subject Meta, OpenAI and Google systems to objective multiple choice assessments on high school level content, using the National High School Exam (ENEM) tests. After collecting the responses from the models, analyses were performed, comparing the performance of each model and the averages of Brazilian students, considering the number of correct answers per test. Surprisin gly, this work showed that all three models performed better in more “subjective” areas than in objective areas, going against common sense. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38059
dc.date.accessioned 2024-09-26T17:34:41Z
dc.date.available 2024-09-26
dc.date.available 2024-09-26T17:34:41Z
dc.type Trabalho de Conclusão de Curso pt_BR
dc.subject LLMs pt_BR
dc.subject Grandes Modelos de Linguagem pt_BR
dc.subject ENEM pt_BR
dc.subject ChatGPT pt_BR
dc.subject GEMINI pt_BR
dc.subject Llama pt_BR
dc.subject Large Language Models pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator RAPOSO, Lucas Brasileiro.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative LLMS assessment in solving ENEM questions. pt_BR
dc.identifier.citation RAPOSO, Lucas Brasileiro. Avaliação de LLMS na resolução de questões do ENEM. 2024. 12 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38059 pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta