http://repositorio.unb.br/handle/10482/40161
File | Description | Size | Format | |
---|---|---|---|---|
2020_BrunoJustinoGarciaPraciano.pdf | 6,96 MB | Adobe PDF | View/Open |
Title: | Multi-camera framework for object detection and distance estimation |
Authors: | Praciano, Bruno Justino Garcia |
Orientador(es):: | Costa, João Paulo Carvalho Lustosa da |
Assunto:: | Veículos autônomos Visão computacional Detecção de objetos Estimação de distância |
Issue Date: | 4-Mar-2021 |
Data de defesa:: | 9-Oct-2020 |
Citation: | PRACIANO, Bruno Justino Garcia. Multi-camera framework for object detection and distance estimation. 2020. xii, 86 f., il. Dissertação (Mestrado em Sistemas Mecatrônicos)—Universidade de Brasília, Brasília, 2020. |
Abstract: | Os veículos autônomos podem reduzir o número de acidentes automobilísticos e o número de vítimas fatais. Segundo o Departamento de Estatística da Alemanha, apenas em 2019, ocorreram mais de 2 milhões de acidentes de carro. Este trabalho propõe um sistema multi câmera para detecção de objetos e medição de distâncias por visão computacional que irá apoiar alguns testes de veículos autônomos e melhorar a segurança durante os testes. Três abordagens são realizadas e comparadas com a distância real, e apenas a melhor técnica foi incluída no framework proposto. Na maioria dos casos, esse erro está diretamente relacionado a fatores meteorológicos e sinais de comunicação fracos entre as câmeras e o hardware de controle. Os resultados obtidos mostram que os métodos de detecção de objetos garantem precisão com exatidão acima de 93 % em condições ideais e ambientes controlados. No entanto, a precisão é reduzida quando os obstáculos estão presentes na frente do objeto detectado. Técnicas adicionais também são propostas para otimizar o posicionamento das câmeras e o ângulo de inclinação. |
Abstract: | Autonomous Vehicles can reduce the number of car crashes and the number of fatal victims. Following the German Statistical Department, just in 2019, there were over 2 million car accidents, and more than 90 percent of crashes are caused by human errors (National Highway Traffic Safety Administration, 2015). This work proposes a multi-camera system for object detection and distance measurement using computer vision that it will support some autonomous vehicle tests and improve safety during the tests. Three approaches are performed and compared with the real distance, and just the best technique was included in the proposed framework. In most cases, this error is directly related to meteorological factors and weak communication signals between cameras and the control hardware. The results obtained show that object detection methods guarantee precision with an accuracy above 93 % in ideal conditions and controlled environments. However, accuracy is reduced when obstacles are present in front of the detected object. Additional techniques are also proposed to optimize the positioning of the cameras and the angle of inclination. |
metadata.dc.description.unidade: | Faculdade de Tecnologia (FT) Departamento de Engenharia Mecânica (FT ENM) |
Description: | Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2020. |
metadata.dc.description.ppg: | Programa de Pós-Graduação em Sistemas Mecatrônicos |
Licença:: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
Appears in Collections: | Teses, dissertações e produtos pós-doutorado |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.