DSpace/Manakin Repository

Investigando o impacto da evolução de casos de uso em testes gerados no contexto de teste baseado em modelo.

Mostrar registro simples

dc.creator.Lattes http://lattes.cnpq.br/1930583565675269 pt_BR
dc.contributor.advisor1 ANDRADE, Wilkerson de Lucena.
dc.contributor.advisor1ID ANDRADE, W. L. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/3697205933296303 pt_BR
dc.contributor.advisor2 ALVES, Everton Leandro Galdino.
dc.contributor.advisor2ID ALVES, E. L. G. pt_BR
dc.contributor.advisor2Lattes http://lattes.cnpq.br/2793969744497453 pt_BR
dc.contributor.referee1 MACHADO, Patricia Duarte de Lima.
dc.contributor.referee2 MOTA, Alexandre Cabral.
dc.description.resumo Teste de Software é o processo que busca encontrar erros a partir da execução de um determinado sistema. Em outras palavras, intenta detectar divergências entre o comportamento atual e o pretendido para o software em desenvolvimento. No entanto, testar não é uma atividade trivial. Especialmente sistemas complexos, que demandam baterias de teste robustas, podem chegar a dedicar até 50%, do tempo utilizado no desenvolvimento, e dos recursos financeiros, para os testes. Teste Baseado em Modelo (TBM) pode facilitar esse processo, uma vez que viabiliza a geração automática de casos de teste a partir dos modelos que descrevem comportamentos ou funcionalidades do sistema sob teste. No contexto TBM, utilizando como modelos casos de uso descritos em linguagem natural, observamos que cerca de 86% da suíte gerada, para execução manual, se torna obsoleta ao evoluir os modelos do sistema e gerar uma nova suíte. Tais evoluções dos modelos podem ser decorrentes de alterações de requisitos, elicitação incorreta dos requisitos, ou então refatoração para melhorar a qualidade do caso de uso. Além disso, detectamos que parte desses testes, aproximadamente 52%, se tornam obsoletos por correções gramaticais ou melhoria de escrita, não alterando o comportamento do sistema, e, podendo ser reutilizados sem muito esforço. Descartar tais testes implica na perda de seus dados históricos (e.g., histórico de execução/resultados e versão utilizada do sistema). Baseado nisso, o objetivo deste trabalho é buscar identificar automaticamente testes impactados por modificações de aspecto sintático, inseridas durante as evoluções dos modelos do sistema, facilitando o reúso e preservação dos dados históricos. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.program PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Investigando o impacto da evolução de casos de uso em testes gerados no contexto de teste baseado em modelo. pt_BR
dc.date.issued 2019-08-19
dc.description.abstract Software testing aiming to find errors from the execution of a particular system. In other words, it attempts to detect divergences between current and intended behavior for a software under development. However, testing is not a trivial activity. Especially complex systems, which require robust test batteries, can devote up to 50% of development time and financial resources to testing. Model-Based Testing (MBT) can facilitate this process by enabling automatic generation of test cases from models that describe behaviors or functionality of the system under test. In the MBT context, using as models use cases described in natural language, we observed that about 86 % of the generated manual execution suite, becomes obsolete when evolving the system models and generating a new suite. Such model evolutions may be due to changing requirements, incorrect requirements elicitation, or refactoring to improve the quality of the use case. In addition, we detected that some of these tests, about 52%, become obsolete due to typos fixing or writing improvements, not modifing system behavior, and can being reused without much effort. Discarding such tests implies the loss of your historical data (e.g., run/results history and associated system version). Based on this, the objective of this paper is to automatically identify tests impacted by syntactic modifications, inserted during the evolution of the system models, facilitating the reuse and preservation of historical data. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/12688
dc.date.accessioned 2020-04-06T19:27:10Z
dc.date.available 2020-04-06
dc.date.available 2020-04-06T19:27:10Z
dc.type Dissertação pt_BR
dc.subject Engenharia de Software pt_BR
dc.subject Software Engineering pt_BR
dc.subject Ingeniería de software pt_BR
dc.subject Teste pt_BR
dc.subject Prueba pt_BR
dc.subject Test pt_BR
dc.subject Teste Baseado em Modelo pt_BR
dc.subject Model-Based Testing pt_BR
dc.subject Pruebas Basadas en Modelos pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator SILVA, Anderson Gustafson Freire da.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Investigating the impact of use case evolution on tests generated in the context of model-based testing. pt_BR
dc.description.sponsorship CNPq pt_BR
dc.identifier.citation SILVA, A. G. F. da. Investigando o impacto da evolução de casos de uso em testes gerados no contexto de teste baseado em modelo. 2019. 74 f. Dissertação (Mestrado em Sistemas e Computação), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande - Paraíba - Brasil, 2019. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/12688 pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta