DSpace/Manakin Repository

Avaliação de grandes modelos de linguagem para detecção de tópicos e posicionamentos em debates: um estudo de caso no contexto do Senado Federal.

Mostrar registro simples

dc.creator.ID CAVALCANTI, H. B. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/1077239857213243 pt_BR
dc.contributor.advisor1 CAMPELO, Claudio Elízio Calazans.
dc.contributor.advisor1ID CAMPELO, Claudio E. C. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/2042247762832979 pt_BR
dc.contributor.referee1 MARINHO, Leandro Balby.
dc.contributor.referee1ID MARINHO, L. B. pt_BR
dc.contributor.referee1Lattes http://lattes.cnpq.br/3728312501032061 pt_BR
dc.contributor.referee2 BRASILEIRO, Francisco Vilar.
dc.contributor.referee2ID BRASILEIRO, F. pt_BR
dc.contributor.referee2Lattes http://lattes.cnpq.br/5957855817378897 pt_BR
dc.description.resumo O poder legislativo no Brasil é uma das três funções essenciais do Estado. No entanto, há um desafio evidente em relação ao acompanhamento das discussões nos órgãos públicos por parte da população. Isso se deve à extensão considerável e ao volume significativo dessas reuniões, tornando-as inacessíveis para muitos cidadãos. Para enfrentar esse desafio, este estudo utilizou as notas taquigráficas do Senado Federal do ano de 2023, que são transcrições dos debates parlamentares, com o objetivo de avaliar o potencial de Grandes Modelos de Linguagem (do inglês, Large Language Models-LLMs), de detectar tópicos relevantes discutidos pelos parlamentares e o posicionamento deles em relação a esses tópicos, classificando-os como a favor, neutro ou contra. Foram realizados experimentos, ambos utilizando o modelo GPT-3.5-Turbo, para as tarefas mencionadas. O primeiro experimento empregou uma técnica de compressão de dados antes de fornecer a entrada para o GPT e abrangeu reuniões de diferentes tamanhos. O segundo experimento não envolveu compressão e focou apenas em reuniões pequenas. Os resultados indicam que o modelo teve um desempenho superior para reuniões pequenas. Além disso, em um panorama geral para reuniões independentes de tamanho, o modelo teve um desempenho superior na tarefa de detecção de tópicos, com uma precisão média de aproximadamente 70%, enquanto na detecção de posicionamento teve um desempenho razoável com uma precisão média de aproximadamente 60%. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Avaliação de grandes modelos de linguagem para detecção de tópicos e posicionamentos em debates: um estudo de caso no contexto do Senado Federal. pt_BR
dc.date.issued 2024-05-15
dc.description.abstract Legislative power in Brazil is one of the three essential functions of the State. However, there is a clear challenge for the population to follow discussions in public bodies. This is due to the considerable length and volume of these meetings, making them inaccessible to many citizens. To address this challenge, this study used the Federal Senate's 2023 tachygraph notes, which are transcripts of parliamentary debates, with the objective of evaluating the potential of Large Language Models (LLMs) to detect relevant topics discussed by parliamentarians and their stance on these topics, classifying them as in for, neutral or against. Experiments were carried out, both using the GPT-3.5-Turbo model, for the tasks mentioned. The first experiment used a data compression technique before providing input to the GPT and covered meetings of different sizes. The second experiment did not involve compression and focused only on small meetings. The results indicate that the model performed better for small meetings. In addition, in a general overview for size-independent meetings, the model performed better in the topic detection task, with an average precision of approximately 70%, while in position detection it performed reasonably well with an average precision of approximately 60%. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38144
dc.date.accessioned 2024-09-28T02:28:58Z
dc.date.available 2024-09-27
dc.date.available 2024-09-28T02:28:58Z
dc.type Trabalho de Conclusão de Curso pt_BR
dc.subject Grandes Modelos de Linguagem (LLMs) pt_BR
dc.subject Política - Senado Federal pt_BR
dc.subject Detecção de Tópicos pt_BR
dc.subject Detecção de Posicionamentos pt_BR
dc.subject Large Language Models (LLMs) pt_BR
dc.subject Politics - Federal Senate pt_BR
dc.subject Topic Detection pt_BR
dc.subject Position Detection pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator CAVALCANTI, Helen Bento.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Evaluation of large language models for detecting topics and stances in debates: a case studyin the context of Federal Senate. pt_BR
dc.identifier.citation CAVALCANTI, Helen Bento. Avaliação de grandes modelos de linguagem para detecção de tópicos e posicionamentos em debates: um estudo de caso no contexto do Senado Federal. 2024. 13 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta