| Campo DC | Valor | Idioma |
| dc.contributor.advisor | Canedo, Edna Dias | pt_BR |
| dc.contributor.author | Paiva, Guilherme Pereira | pt_BR |
| dc.date.accessioned | 2025-11-24T16:52:27Z | - |
| dc.date.available | 2025-11-24T16:52:27Z | - |
| dc.date.issued | 2025-11-24 | - |
| dc.date.submitted | 2025-08-25 | - |
| dc.identifier.citation | PAIVA, Guilherme Pereira. Explorando Large Language Models para a Geração de Requisitos de Software a partir de Issues em Projetos de Código Aberto. 2025. 68 f., il. Dissertação (Mestrado em Informática) — Universidade de Brasília, Brasília, 2025. | pt_BR |
| dc.identifier.uri | http://repositorio.unb.br/handle/10482/53200 | - |
| dc.description | Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graduação em Informática, 2025. | pt_BR |
| dc.description.abstract | Contexto: A Engenharia de Requisitos (ER) em projetos de Open-Source Software (OSS)
sofre com a informalidade e o grande volume de issues, gerando lacunas entre solicitações
de usuários e artefatos formais exigidos por normas como a ISO/IEC/IEEE 29148:2018.
Objetivo: Avaliar empiricamente a eficácia de Large Language Models (LLMs) — modulada por diferentes estratégias de engenharia de prompts — na geração automática de
requisitos de software a partir de títulos de issues. Método: Foram coletados 150 títulos de issues de cinco repositórios OSS altamente ativos; esses títulos foram processados
pelos LLMs o3-mini e DeepSeek R1, combinados com três estilos de prompt (Zero-shot,
Few-shot e Expert Identity), resultando em 900 requisitos avaliados por um LLM-juiz
(Qwen QwQ-32b) segundo as métricas Não Ambiguidade, Verificabilidade e Singularidade
derivadas da norma ISO/IEC/IEEE 29148. Resultados: Ambos os LLMs produziram
requisitos de alta qualidade (médias > 4,2 numa escala 1–5), mas com variação significativa; a estratégia Few-shot elevou consistentemente a Singularidade, enquanto a Expert
Identity melhorou a Verificabilidade ao custo de requisitos menos singulares, evidenciando trade-offs dependentes do modelo e do prompt. Conclusão: LLMs são assistentes
promissores para automatizar etapas críticas da ER em OSS, porém sua eficácia exige
prompts cuidadosamente projetados e supervisão humana para balancear atributos de
qualidade concorrentes e assegurar requisitos claros, verificáveis e atômicos. | pt_BR |
| dc.language.iso | por | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.title | Explorando Large Language Models para a geração de requisitos de software a partir de issues em projetos de código aberto | pt_BR |
| dc.type | Dissertação | pt_BR |
| dc.subject.keyword | Engenharia de requisitos | pt_BR |
| dc.subject.keyword | Large Language Models | pt_BR |
| dc.subject.keyword | Engenharia de Prompt | pt_BR |
| dc.subject.keyword | Análise de qualidade automatizada | pt_BR |
| dc.subject.keyword | Software aberto | pt_BR |
| dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | pt_BR |
| dc.description.abstract1 | Context: Requirements Engineering (RE) in Open Source Software (OSS) projects suffers from informality and a large volume of issues, creating gaps between user requests and
formal artifacts required by standards such as ISO/IEC/IEEE 29148:2018. Objective:
To empirically evaluate the effectiveness of Large Language Models (LLMs) — modulated by different prompt engineering strategies — in automatically generating software
requirements from issue titles. Method: 150 issue titles were collected from five highly
active OSS repositories; these titles were processed by the LLMs o3-mini and DeepSeek
R1, combined with three prompt styles (Zero-shot, Few-shot, and Expert Identity), resulting in 900 requirements evaluated by an LLM-judge (Qwen QwQ-32b) according to
the metrics Unambiguity, Verifiability, and Singularity, derived from the ISO/IEC/IEEE
29148 standard. Results: Both LLMs produced high-quality requirements (averages >
4.2 on a 1–5 scale), but with significant variation; the Few-shot strategy consistently increased Singularity, while Expert Identity improved Verifiability at the cost of less singular
requirements, highlighting model and prompt dependent trade-offs. Conclusion: LLMs
are promising assistants for automating critical stages of RE in OSS, but their effectiveness requires carefully designed prompts and human supervision to balance competing
quality attributes and ensure clear, verifiable, and atomic requirements. | pt_BR |
| dc.description.unidade | Instituto de Ciências Exatas (IE) | pt_BR |
| dc.description.unidade | Departamento de Ciência da Computação (IE CIC) | pt_BR |
| dc.description.ppg | Programa de Pós-Graduação em Informática | pt_BR |
| Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado
|