DSpace/Manakin Repository

Detectando fraquezas usando modelos de linguagem de grande porte: uma avaliação comparativa.

Mostrar registro simples

dc.creator.ID MAIA SOBRINHO, K. R. F. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/8529240784804319 pt_BR
dc.contributor.advisor1 GHEYI, Rohit.
dc.contributor.advisor1ID GHEYI, R. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/2931270888717344 pt_BR
dc.contributor.referee1 MONGIOVI, Melina.
dc.contributor.referee1ID MONGIOVI, M. pt_BR
dc.contributor.referee1Lattes http://lattes.cnpq.br/7535849756393864 pt_BR
dc.contributor.referee2 BRASILEIRO, Francisco Vilar.
dc.contributor.referee2ID BRASILEIRO, F. V. pt_BR
dc.contributor.referee2Lattes http://lattes.cnpq.br/5957855817378897 pt_BR
dc.description.resumo A era digital exige software seguro. Fraquezas no código-fonte podem ter consequências graves, desde falhas de software até ataques cibernéticos. Modelos de Linguagem de Grande Porte (LLMs) como ChatGPT 3.5, Gemini 1.0, Claude 3 Sonnet e Mistral Large surgem como ferramentas promissoras para auxiliar na detecção de fraquezas em código-fonte. Este projeto avalia o desempenho de LLMs na detecção de 56 exemplos de fraquezas em código-fonte. Os resultados demonstram que as LLMs podem ser ferramentas importantes para programadores. Na nossa avaliação, as LLMs detectaram 75% das fraquezas de diferentes tipos como: SQL Injection, Cross-site Scripting, Out-of-bounds Write e Null Pointer Dereference. O Claude 3 Sonnet foi a LLM com o melhor resultado. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Detectando fraquezas usando modelos de linguagem de grande porte: uma avaliação comparativa. pt_BR
dc.date.issued 2024-05-15
dc.description.abstract The digital age demands secure software. Weaknesses in source code can have serious consequences, ranging from software failures to cyberattacks. Large Language Models (LLMs) such as ChatGPT 3.5, Gemini 1.0, Claude 3 Sonnet, and Mistral Large emerge as promising tools to aid in the detection of weaknesses in source code. This project evaluates the performance of LLMs in detecting 56 examples of weaknesses in source code. The results demonstrate that LLMs can be important tools for programmers. In our evaluation, LLMs detected 75% of the weaknesses of different types such as: SQL Injection, Cross-site Scripting, Out-of-bounds Write, and Null Pointer Dereference. Claude 3 Sonnet was the LLM with the best result. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38053
dc.date.accessioned 2024-09-26T16:37:06Z
dc.date.available 2024-09-26
dc.date.available 2024-09-26T16:37:06Z
dc.type Trabalho de Conclusão de Curso pt_BR
dc.subject Modelos de Linguagem pt_BR
dc.subject ChatGPT 3.5 pt_BR
dc.subject Gemini 1.0 pt_BR
dc.subject Claude 3 pt_BR
dc.subject Sonnet pt_BR
dc.subject Mistral Large pt_BR
dc.subject Código-fonte - Fraquezas pt_BR
dc.subject Language Models pt_BR
dc.subject Weaknesses pt_BR
dc.subject Source Code - Weaknesses pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator MAIA SOBRINHO, Kleber Reudo Filgueiras.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Detecting weaknesses using large language models: a comparative evaluation. pt_BR
dc.identifier.citation MAIA SOBRINHO, Kleber Reudo Filgueiras. Detectando fraquezas usando modelos de linguagem de grande porte: uma avaliação comparativa. 2024. 14 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38053 pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta