Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38059
Full metadata record
DC FieldValueLanguage
dc.creator.IDRAPOSO, L. B.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/7921625824750417pt_BR
dc.contributor.advisor1MORAIS, Fábio Jorge Almeida.
dc.contributor.advisor1IDMORAIS, F. J. A.pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/0987042606840444pt_BR
dc.contributor.referee1PIRES, Carlos Eduardo Santos.
dc.contributor.referee1IDPIRES, C. E. S.pt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/4986021622366786pt_BR
dc.contributor.referee2BRASILEIRO, Francisco Vilar.
dc.contributor.referee2IDBRASILEIRO, F. V.pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5957855817378897pt_BR
dc.description.resumoGrandes Modelos de Linguagem (LLMs do inglês, Large Language Models) surgiram como uma quebra de paradigma no uso da Inteligência Artificial (IA) e são amplamente usados em diferentes áreas. Um dos maiores responsáveis pela popularização desse termo é o ChatGPT, desenvolvido pela OpenAI. A partir da ascensão desse, outras empresas, como a Meta e a Google, desenvolveram seus próprios modelos como alternativas ao GPT. Essas ferramentas se apresentam como solução de problemas nos mais variados contextos. Entretanto, pouca atenção é voltada para medir a capacidade de corretude e eficiência de suas respostas. Somado a isso, a maioria dos estudos neste âmbito, se prendem ao contexto da língua inglesa, sem que os modelos sejam efetivamente testados em cenários globalizados. Logo, este estudo propõe submeter os sistemas da Meta, da OpenAI e da Google à avaliações de múltipla escolha objetivas sobre conteúdos de nível médio, por meio das provas do Exame Nacional do Ensino Médio (ENEM). Após colher as respostas dos modelos, análises foram realizadas, comparando desempenho, entre cada uma delas e com médias dos alunos brasileiros, considerando quantidade de acertos por prova. Então, surpreendentemente, este trabalho mostrou que todos os três modelos desempenharam melhor em áreas mais “subjetivas” que em áreas objetivas, indo contra o senso comum.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqCiência da Computaçãopt_BR
dc.titleAvaliação de LLMS na resolução de questões do ENEM.pt_BR
dc.date.issued2024-05-15
dc.description.abstractLarge Language Models (LLMs) emerged as a paradigm shift in the use of Artificial Intelligence (AI) and are widely used in different areas. One of the most popularized models of this term is ChatGPT, developed by OpenAI. Since its rise, other companies, such as Meta and Google, have developed their own models as alternatives to GPT. These tools are presented as problem solving tools in a wide variety of contexts. However, little attention has been paid to measuring the correctness and efficiency of their responses. In addition, most studies in this area are limited to the English language context, without effectively testing the models in globalized scenarios. Therefore, this study proposes to subject Meta, OpenAI and Google systems to objective multiple choice assessments on high school level content, using the National High School Exam (ENEM) tests. After collecting the responses from the models, analyses were performed, comparing the performance of each model and the averages of Brazilian students, considering the number of correct answers per test. Surprisin gly, this work showed that all three models performed better in more “subjective” areas than in objective areas, going against common sense.pt_BR
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38059
dc.date.accessioned2024-09-26T17:34:41Z
dc.date.available2024-09-26
dc.date.available2024-09-26T17:34:41Z
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.subjectLLMspt_BR
dc.subjectGrandes Modelos de Linguagempt_BR
dc.subjectENEMpt_BR
dc.subjectChatGPTpt_BR
dc.subjectGEMINIpt_BR
dc.subjectLlamapt_BR
dc.subjectLarge Language Modelspt_BR
dc.rightsAcesso Abertopt_BR
dc.creatorRAPOSO, Lucas Brasileiro.
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeLLMS assessment in solving ENEM questions.pt_BR
dc.identifier.citationRAPOSO, Lucas Brasileiro. Avaliação de LLMS na resolução de questões do ENEM. 2024. 12 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38059pt_BR
Appears in Collections:Trabalho de Conclusão de Curso - Artigo - Ciência da Computação

Files in This Item:
File Description SizeFormat 
LUCAS BRASILEIRO RAPOSO-ARTIGO-CEEI-CIÊNCIA DA COMPUTAÇÃO (2024).pdf337.66 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.