http://repositorio.unb.br/handle/10482/43630
File | Description | Size | Format | |
---|---|---|---|---|
2022_PhilipeBorba.pdf | 15,45 MB | Adobe PDF | View/Open |
Title: | Extração automática de edificações para a produção cartográfica utilizando inteligência artificial |
Authors: | Borba, Philipe |
metadata.dc.contributor.email: | philipeborba@gmail.com |
Orientador(es):: | Bias, Edilson de Souza |
Coorientador(es):: | Silva, Nilton Correia da |
Assunto:: | Sensoriamento remoto Deep Learning Segmentação semântica Produção cartográfica |
Issue Date: | 3-May-2022 |
Data de defesa:: | 23-Feb-2022 |
Citation: | BORBA, Philipe. Extração automática de edificações para a produção cartográfica utilizando inteligência artificial. 2022. 163 f., il. Dissertação (Mestrado em Geociências Aplicadas) — Universidade de Brasília, Brasília, 2022. |
Abstract: | Extração de edificações por meio de imagens oriundas de sensores aerotransportados é uma atividade essencial para aplicações como planejamento urbano e produção cartográfica. No caso da produção cartográfica, ao utilizar somente imagens, tal processo é essencialmente manual, seja por meio de restituição fotogramétrica, seja por digitalização em uma ortoimagem. Dados os recentes avanços no campo de inteligência artificial, particularmente no ramo de Deep Learning (DL), a presente dissertação propõe um novo método baseado em redes convolucionais profundas (convolutional neural networks) para extrair automaticamente a geometria de edificações em regiões densamente edificadas, denominado HRNet OCR w48 Frame Field. Tal técnica consiste na combinação entre a rede neural convolucional profunda HRNet OCR w48 e a estrutura Frame Field. Dessa combinação, além das máscaras binárias de segmentação, é extraído um campo vetorial complexo (Frame Field) utilizado em um método de pós-processamento denominado Active Skeletons Method (ASM) para a obtenção de polígonos com formatos de edificações. Além do método supramencionado, identificou-se na literatura um método que no escopo desta pesquisa foi denominado ModPolyMapper, que também é capaz de extrair polígonos de edificações e que apresentou, em regiões esparsas, resultados adequados aos parâmetros definidos na pesquisa. Em adição, a presente pesquisa também propõe um novo conjunto de dados (dataset), para o treinamento de métodos semelhantes aos apresentados, denominado Brazilian Army Geographic Service Buildings dataset. Além disso, foram desenvolvidos frameworks baseados em software livre e de código aberto, na linguagem de programação Python, um utilizando o Tensorflow, e outro o PyTorch, para o treinamento de redes de segmentação semântica, denominados respectivamente segmentation_models_trainer e pytorch_segmentation_models_trainer. Outrossim, também foi desenvolvido um complemento para o QGIS, denominado DeepLearningTools, para a construção e visualização de máscaras para o treinamento. Ademais, foi realizada uma análise de qualidade à luz das normas do Sistema Cartográfico Nacional (SCN) para atestar que ambos os métodos abordados nesta pesquisa são adequados para a elaboração de cartas na escala 1:25.000, em conformidade com as normas do Sistema Cartográfico Nacional (SCN). |
Abstract: | Building footprint extraction using airborne imagery is essential for urban planning and cartographic production. Notably, for cartographic production, when using only images, that process is essentially handcrafted, either by photogrammetry restitution or by extracting features manually using an orthoimage. With the recent advances in Artificial Intelligence, particularly in Deep Learning, the present masters’ dissertation proposes a new method based on deep convolutional neural network techniques to automatically extract building footprints in densely built-up areas, named HRNet OCR w48 Frame Field. Such a technique combines the deep convolutional neural network HRNet OCR w48 with Frame Field’s structure. Besides the binary segmentation masks, these combinations extract a complex vector field (Frame Field), which is used in a post-processing technique named Active Skeletons Method (ASM) to extract building footprints. Moreover, we identified in the literature a method that in this research is named ModPolyMapper, which is also capable of extracting building footprints, and which presented relevant results according to the research parameters in sparse regions. Furthermore, the current research also proposes a new dataset for training methods similar to the previously presented ones, named Brazilian Army Geographic Service Buildings Dataset. In addition, we developed two free and open source frameworks in Python, one using Tensorflow, while the other uses PyTorch to train semantic segmentation neural networks, respectively named segmentation_models_trainer and pytorch_segmentation_models_trainer. Thus, we also developed a QGIS plugin named DeepLearningTools, used to build and visualize training masks. Additionally, we carried out a quality assurance analysis in light of the specifications of the National Cartographic System to assess that both mentioned methods in this research are suitable to build topographic charts on the scale of 1:25,000. |
Description: | Dissertação (mestrado) — Universidade de Brasília, Instituto de Geociências, Programa de Pós-Graduação em Geociências Aplicadas, 2022. |
Licença:: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
Appears in Collections: | Teses, dissertações e produtos pós-doutorado |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.