Skip navigation
Use este identificador para citar ou linkar para este item: http://repositorio.unb.br/handle/10482/53200
Arquivos associados a este item:
Arquivo TamanhoFormato 
GuilhermePereiraPaiva_DISSERT.pdf1,1 MBAdobe PDFVisualizar/Abrir
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorCanedo, Edna Diaspt_BR
dc.contributor.authorPaiva, Guilherme Pereirapt_BR
dc.date.accessioned2025-11-24T16:52:27Z-
dc.date.available2025-11-24T16:52:27Z-
dc.date.issued2025-11-24-
dc.date.submitted2025-08-25-
dc.identifier.citationPAIVA, Guilherme Pereira. Explorando Large Language Models para a Geração de Requisitos de Software a partir de Issues em Projetos de Código Aberto. 2025. 68 f., il. Dissertação (Mestrado em Informática) — Universidade de Brasília, Brasília, 2025.pt_BR
dc.identifier.urihttp://repositorio.unb.br/handle/10482/53200-
dc.descriptionDissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graduação em Informática, 2025.pt_BR
dc.description.abstractContexto: A Engenharia de Requisitos (ER) em projetos de Open-Source Software (OSS) sofre com a informalidade e o grande volume de issues, gerando lacunas entre solicitações de usuários e artefatos formais exigidos por normas como a ISO/IEC/IEEE 29148:2018. Objetivo: Avaliar empiricamente a eficácia de Large Language Models (LLMs) — modulada por diferentes estratégias de engenharia de prompts — na geração automática de requisitos de software a partir de títulos de issues. Método: Foram coletados 150 títulos de issues de cinco repositórios OSS altamente ativos; esses títulos foram processados pelos LLMs o3-mini e DeepSeek R1, combinados com três estilos de prompt (Zero-shot, Few-shot e Expert Identity), resultando em 900 requisitos avaliados por um LLM-juiz (Qwen QwQ-32b) segundo as métricas Não Ambiguidade, Verificabilidade e Singularidade derivadas da norma ISO/IEC/IEEE 29148. Resultados: Ambos os LLMs produziram requisitos de alta qualidade (médias > 4,2 numa escala 1–5), mas com variação significativa; a estratégia Few-shot elevou consistentemente a Singularidade, enquanto a Expert Identity melhorou a Verificabilidade ao custo de requisitos menos singulares, evidenciando trade-offs dependentes do modelo e do prompt. Conclusão: LLMs são assistentes promissores para automatizar etapas críticas da ER em OSS, porém sua eficácia exige prompts cuidadosamente projetados e supervisão humana para balancear atributos de qualidade concorrentes e assegurar requisitos claros, verificáveis e atômicos.pt_BR
dc.language.isoporpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleExplorando Large Language Models para a geração de requisitos de software a partir de issues em projetos de código abertopt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordEngenharia de requisitospt_BR
dc.subject.keywordLarge Language Modelspt_BR
dc.subject.keywordEngenharia de Promptpt_BR
dc.subject.keywordAnálise de qualidade automatizadapt_BR
dc.subject.keywordSoftware abertopt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.pt_BR
dc.description.abstract1Context: Requirements Engineering (RE) in Open Source Software (OSS) projects suffers from informality and a large volume of issues, creating gaps between user requests and formal artifacts required by standards such as ISO/IEC/IEEE 29148:2018. Objective: To empirically evaluate the effectiveness of Large Language Models (LLMs) — modulated by different prompt engineering strategies — in automatically generating software requirements from issue titles. Method: 150 issue titles were collected from five highly active OSS repositories; these titles were processed by the LLMs o3-mini and DeepSeek R1, combined with three prompt styles (Zero-shot, Few-shot, and Expert Identity), resulting in 900 requirements evaluated by an LLM-judge (Qwen QwQ-32b) according to the metrics Unambiguity, Verifiability, and Singularity, derived from the ISO/IEC/IEEE 29148 standard. Results: Both LLMs produced high-quality requirements (averages > 4.2 on a 1–5 scale), but with significant variation; the Few-shot strategy consistently increased Singularity, while Expert Identity improved Verifiability at the cost of less singular requirements, highlighting model and prompt dependent trade-offs. Conclusion: LLMs are promising assistants for automating critical stages of RE in OSS, but their effectiveness requires carefully designed prompts and human supervision to balance competing quality attributes and ensure clear, verifiable, and atomic requirements.pt_BR
dc.description.unidadeInstituto de Ciências Exatas (IE)pt_BR
dc.description.unidadeDepartamento de Ciência da Computação (IE CIC)pt_BR
dc.description.ppgPrograma de Pós-Graduação em Informáticapt_BR
Aparece nas coleções:Teses, dissertações e produtos pós-doutorado

Mostrar registro simples do item Visualizar estatísticas



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.