Skip navigation
Use este identificador para citar ou linkar para este item: http://repositorio.unb.br/handle/10482/53405
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2025_HachidHabibCury_DISSERT.pdf33,94 MBAdobe PDFVisualizar/Abrir
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorTeixeira, Evandro Leonardo Silva-
dc.contributor.authorCury, Hachid Habib-
dc.date.accessioned2025-12-11T12:55:15Z-
dc.date.available2025-12-11T12:55:15Z-
dc.date.issued2025-12-11-
dc.date.submitted2025-08-25-
dc.identifier.citationCURY, Hachid Habib. Integração multissensor de câmera e radar para detecção de objetos para desenvolvimento de sistemas avançados de auxílio à condução. 2025. 90 f., il. Dissertação (Mestrado em Sistemas Mecatrônicos) — Universidade de Brasília, Brasília, 2025.pt_BR
dc.identifier.urihttp://repositorio.unb.br/handle/10482/53405-
dc.descriptionDissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2025.pt_BR
dc.description.abstractA percepção precisa da cena de trânsito é essencial para a segurança e a eficácia dos Sistemas Avançados de Assistência ao Condutor (ADAS), bem como para a transição rumo à condução autônoma. Este trabalho investiga a fusão de dados entre sensores de câmera e radar automotivo, utilizando a base de dados nuScenes, com foco na aplicação de técnicas de fusão nos níveis baixo e médio, tendo como referência comparativa o detector de objetos Faster R-CNN. Inicialmente, foi implementada a fusão de baixo nível por meio da Radar Region Proposal Network (RRPN), na qual o radar é empregado como sensor principal na geração de regiões de interesse. No entanto, essa abordagem apresentou desempenho inferior ao do detector baseado exclusivamente em câmera, uma vez que objetos não detectados pelo radar não são processados pela rede neural, comprometendo a robustez da detecção. Os resultados indicaram que mais da metade das bicicletas e motocicletas anotadas na base nuScenes não possuem qualquer ponto de radar associado; no caso dos pedestres, apenas cerca de 20% apresentam ao menos um ponto detectável por esse sensor. Em seguida, foi avaliada a fusão de características (médio nível), com a implementação do módulo Spatial Attention Fusion (SAF) na arquitetura da rede. Os resultados demonstraram melhorias consistentes nas métricas de desempenho, com destaque para ganhos de 1.64% em AP75, 0.96% em AP50, 0.80% em AR e 1.36% em APs, indicando maior precisão na localização das caixas delimitadoras e na detecção de pequenos objetos. Esses avanços validam o potencial da fusão sensorial em nível de características como estratégia eficaz para aprimorar a percepção em sistemas autônomos.pt_BR
dc.description.sponsorshipFundação de Desenvolvimento da Pesquisa (FUNDEP) e Projeto SegurAuto.pt_BR
dc.language.isoporpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleIntegração multissensor de câmera e radar para detecção de objetos para desenvolvimento de sistemas avançados de auxílio à conduçãopt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordFusão sensorialpt_BR
dc.subject.keywordDetecção de objetospt_BR
dc.subject.keywordSistemas Avançados de Assistência ao Condutor (ADAS)pt_BR
dc.subject.keywordRadarpt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.pt_BR
dc.description.abstract1Accurate traffic scene perception is essential for the safety and effectiveness of Advanced Driver Assistance Systems (ADAS), as well as for the transition toward autonomous driving. This work investigates data fusion between camera and automotive radar sensors using the nuScenes database, focusing on the application of low- and mid-level fusion techniques, using the Faster R-CNN object detector as a benchmark. Initially, low-level fusion was implemented using the Radar Region Proposal Network (RRPN), in which radar is used as the primary sensor in generating regions of interest. However, this approach underperformed the camera-only detector, since objects not detected by radar are not processed by the neural network, compromising detection robustness. The results indicated that more than half of the bicycles and motorcycles annotated in the nuScenes database do not have any associated radar points; in the case of pedestrians, only about 20% have at least one point detectable by this sensor. Subsequently, mid-level feature fusion was evaluated through the implementation of the Spatial Attention Fusion (SAF) module within the network architecture. The results showed consistent improvements across performance metrics, with notable increases of 1.64% in AP75, 0.96% in AP50, 0.80% in AR, and 1.36% in APs, indicating greater accuracy in bounding box localization and enhanced detection of small objects. These advances validate the potential of feature-level sensor fusion as an effective strategy to improve perception in autonomous systemspt_BR
dc.description.unidadeFaculdade de Tecnologia (FT)pt_BR
dc.description.unidadeDepartamento de Engenharia Mecânica (FT ENM)pt_BR
dc.description.ppgPrograma de Pós-Graduação em Sistemas Mecatrônicospt_BR
Aparece nas coleções:Teses, dissertações e produtos pós-doutorado

Mostrar registro simples do item Visualizar estatísticas



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.