| Campo DC | Valor | Idioma |
| dc.contributor.advisor | Teixeira, Evandro Leonardo Silva | - |
| dc.contributor.author | Cury, Hachid Habib | - |
| dc.date.accessioned | 2025-12-11T12:55:15Z | - |
| dc.date.available | 2025-12-11T12:55:15Z | - |
| dc.date.issued | 2025-12-11 | - |
| dc.date.submitted | 2025-08-25 | - |
| dc.identifier.citation | CURY, Hachid Habib. Integração multissensor de câmera e radar para detecção de objetos para desenvolvimento de sistemas avançados de auxílio à condução. 2025. 90 f., il. Dissertação (Mestrado em Sistemas Mecatrônicos) — Universidade de Brasília, Brasília, 2025. | pt_BR |
| dc.identifier.uri | http://repositorio.unb.br/handle/10482/53405 | - |
| dc.description | Dissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2025. | pt_BR |
| dc.description.abstract | A percepção precisa da cena de trânsito é essencial para a segurança e a eficácia dos
Sistemas Avançados de Assistência ao Condutor (ADAS), bem como para a transição rumo
à condução autônoma. Este trabalho investiga a fusão de dados entre sensores de câmera e
radar automotivo, utilizando a base de dados nuScenes, com foco na aplicação de técnicas
de fusão nos níveis baixo e médio, tendo como referência comparativa o detector de objetos
Faster R-CNN. Inicialmente, foi implementada a fusão de baixo nível por meio da Radar
Region Proposal Network (RRPN), na qual o radar é empregado como sensor principal na
geração de regiões de interesse. No entanto, essa abordagem apresentou desempenho inferior
ao do detector baseado exclusivamente em câmera, uma vez que objetos não detectados pelo
radar não são processados pela rede neural, comprometendo a robustez da detecção. Os
resultados indicaram que mais da metade das bicicletas e motocicletas anotadas na base
nuScenes não possuem qualquer ponto de radar associado; no caso dos pedestres, apenas
cerca de 20% apresentam ao menos um ponto detectável por esse sensor.
Em seguida, foi avaliada a fusão de características (médio nível), com a implementação do
módulo Spatial Attention Fusion (SAF) na arquitetura da rede. Os resultados demonstraram
melhorias consistentes nas métricas de desempenho, com destaque para ganhos de 1.64%
em AP75, 0.96% em AP50, 0.80% em AR e 1.36% em APs, indicando maior precisão na
localização das caixas delimitadoras e na detecção de pequenos objetos. Esses avanços
validam o potencial da fusão sensorial em nível de características como estratégia eficaz para
aprimorar a percepção em sistemas autônomos. | pt_BR |
| dc.description.sponsorship | Fundação de Desenvolvimento da Pesquisa (FUNDEP) e Projeto SegurAuto. | pt_BR |
| dc.language.iso | por | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.title | Integração multissensor de câmera e radar para detecção de objetos para desenvolvimento de sistemas avançados de auxílio à condução | pt_BR |
| dc.type | Dissertação | pt_BR |
| dc.subject.keyword | Fusão sensorial | pt_BR |
| dc.subject.keyword | Detecção de objetos | pt_BR |
| dc.subject.keyword | Sistemas Avançados de Assistência ao Condutor (ADAS) | pt_BR |
| dc.subject.keyword | Radar | pt_BR |
| dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | pt_BR |
| dc.description.abstract1 | Accurate traffic scene perception is essential for the safety and effectiveness of Advanced
Driver Assistance Systems (ADAS), as well as for the transition toward autonomous driving.
This work investigates data fusion between camera and automotive radar sensors using the
nuScenes database, focusing on the application of low- and mid-level fusion techniques,
using the Faster R-CNN object detector as a benchmark. Initially, low-level fusion was
implemented using the Radar Region Proposal Network (RRPN), in which radar is used as
the primary sensor in generating regions of interest. However, this approach underperformed
the camera-only detector, since objects not detected by radar are not processed by the neural
network, compromising detection robustness. The results indicated that more than half of
the bicycles and motorcycles annotated in the nuScenes database do not have any associated
radar points; in the case of pedestrians, only about 20% have at least one point detectable by
this sensor.
Subsequently, mid-level feature fusion was evaluated through the implementation of the
Spatial Attention Fusion (SAF) module within the network architecture. The results showed
consistent improvements across performance metrics, with notable increases of 1.64% in
AP75, 0.96% in AP50, 0.80% in AR, and 1.36% in APs, indicating greater accuracy in bounding box localization and enhanced detection of small objects. These advances validate the
potential of feature-level sensor fusion as an effective strategy to improve perception in
autonomous systems | pt_BR |
| dc.description.unidade | Faculdade de Tecnologia (FT) | pt_BR |
| dc.description.unidade | Departamento de Engenharia Mecânica (FT ENM) | pt_BR |
| dc.description.ppg | Programa de Pós-Graduação em Sistemas Mecatrônicos | pt_BR |
| Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado
|