http://repositorio.unb.br/handle/10482/53405| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| 2025_HachidHabibCury_DISSERT.pdf | 33,94 MB | Adobe PDF | Visualizar/Abrir |
| Título : | Integração multissensor de câmera e radar para detecção de objetos para desenvolvimento de sistemas avançados de auxílio à condução |
| Autor : | Cury, Hachid Habib |
| Orientador(es):: | Teixeira, Evandro Leonardo Silva |
| Assunto:: | Fusão sensorial Detecção de objetos Sistemas Avançados de Assistência ao Condutor (ADAS) Radar |
| Fecha de publicación : | 11-dic-2025 |
| Data de defesa:: | 25-ago-2025 |
| Citación : | CURY, Hachid Habib. Integração multissensor de câmera e radar para detecção de objetos para desenvolvimento de sistemas avançados de auxílio à condução. 2025. 90 f., il. Dissertação (Mestrado em Sistemas Mecatrônicos) — Universidade de Brasília, Brasília, 2025. |
| Resumen : | A percepção precisa da cena de trânsito é essencial para a segurança e a eficácia dos Sistemas Avançados de Assistência ao Condutor (ADAS), bem como para a transição rumo à condução autônoma. Este trabalho investiga a fusão de dados entre sensores de câmera e radar automotivo, utilizando a base de dados nuScenes, com foco na aplicação de técnicas de fusão nos níveis baixo e médio, tendo como referência comparativa o detector de objetos Faster R-CNN. Inicialmente, foi implementada a fusão de baixo nível por meio da Radar Region Proposal Network (RRPN), na qual o radar é empregado como sensor principal na geração de regiões de interesse. No entanto, essa abordagem apresentou desempenho inferior ao do detector baseado exclusivamente em câmera, uma vez que objetos não detectados pelo radar não são processados pela rede neural, comprometendo a robustez da detecção. Os resultados indicaram que mais da metade das bicicletas e motocicletas anotadas na base nuScenes não possuem qualquer ponto de radar associado; no caso dos pedestres, apenas cerca de 20% apresentam ao menos um ponto detectável por esse sensor. Em seguida, foi avaliada a fusão de características (médio nível), com a implementação do módulo Spatial Attention Fusion (SAF) na arquitetura da rede. Os resultados demonstraram melhorias consistentes nas métricas de desempenho, com destaque para ganhos de 1.64% em AP75, 0.96% em AP50, 0.80% em AR e 1.36% em APs, indicando maior precisão na localização das caixas delimitadoras e na detecção de pequenos objetos. Esses avanços validam o potencial da fusão sensorial em nível de características como estratégia eficaz para aprimorar a percepção em sistemas autônomos. |
| Abstract: | Accurate traffic scene perception is essential for the safety and effectiveness of Advanced Driver Assistance Systems (ADAS), as well as for the transition toward autonomous driving. This work investigates data fusion between camera and automotive radar sensors using the nuScenes database, focusing on the application of low- and mid-level fusion techniques, using the Faster R-CNN object detector as a benchmark. Initially, low-level fusion was implemented using the Radar Region Proposal Network (RRPN), in which radar is used as the primary sensor in generating regions of interest. However, this approach underperformed the camera-only detector, since objects not detected by radar are not processed by the neural network, compromising detection robustness. The results indicated that more than half of the bicycles and motorcycles annotated in the nuScenes database do not have any associated radar points; in the case of pedestrians, only about 20% have at least one point detectable by this sensor. Subsequently, mid-level feature fusion was evaluated through the implementation of the Spatial Attention Fusion (SAF) module within the network architecture. The results showed consistent improvements across performance metrics, with notable increases of 1.64% in AP75, 0.96% in AP50, 0.80% in AR, and 1.36% in APs, indicating greater accuracy in bounding box localization and enhanced detection of small objects. These advances validate the potential of feature-level sensor fusion as an effective strategy to improve perception in autonomous systems |
| metadata.dc.description.unidade: | Faculdade de Tecnologia (FT) Departamento de Engenharia Mecânica (FT ENM) |
| Descripción : | Dissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2025. |
| metadata.dc.description.ppg: | Programa de Pós-Graduação em Sistemas Mecatrônicos |
| Licença:: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
| Agência financiadora: | Fundação de Desenvolvimento da Pesquisa (FUNDEP) e Projeto SegurAuto. |
| Aparece en las colecciones: | Teses, dissertações e produtos pós-doutorado |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.