Skip navigation
Please use this identifier to cite or link to this item: http://repositorio.unb.br/handle/10482/21250
Files in This Item:
File Description SizeFormat 
2016_GustavoMaiaQueirozdeMendonça.pdf16,23 MBAdobe PDFView/Open
Title: Descritor local baseado no algoritmo SIFT para rastreamento e segmentação de objetos em vídeos via grafos de regiões
Authors: Mendonça, Gustavo Maia Queiroz de
Orientador(es):: Queiroz, Ricardo Lopes de
Assunto:: Grafos
Algoritmos
Rastreamento de objetos
Issue Date: 18-Aug-2016
Citation: MENDONÇA, Gustavo Maia Queiroz de. Descritor local baseado no algoritmo SIFT para rastreamento e segmentação de objetos em vídeos via grafos de regiões. 2016. xvi, 118 f., il. Dissertação (Mestrado em Engenharia Elétrica)—Universidade de Brasília, Brasília, 2016.
Abstract: Na segmentação de objetos em vídeos por intermédio de um rastreamento quadro a quadro de regiões, a manutenção da coerência temporal depende diretamente da qualidade desse rastreamento ao longo dos quadros. Para esse fim, adaptou-se para o domínio dos superpixels processados como grafos de regiões, princípios de um extrator de características bastante difundido, o SIFT, que exibe grande eficiência na identificação/rastreamento de objetos em cenas. Um descritor é criado para cada região, a partir de histogramas de orientação do gradiente de setores ao redor do vértice, calculado de forma a garantir, como no SIFT, invariância à escala, rotação e iluminação. As contribuições do descritor proposto na segmentação de objetos em vídeo, feita a partir de corte em grafos, são testadas em três níveis: ajuste, ou compensação, de movimento do objeto em cena; reforço nos pesos de ligação entre arestas dos grafos, para os elementos considerados correspondentes entre os quadros e; determinação de grafos equivalentes com redução no número elementos guiada pela correspondência encontradas a partir algoritmo proposto. ________________________________________________________________________________________________ ABSTRACT
In the segmentation of object in video through frame to frame region tracking, the temporal coherence maintenance depends directly on the quality of the regions tracking along the frames. To this aim, principles of a widespread feature extractor, the SIFT, were adapted for the superpixels domain rendered as region graphs, which exhibits high efficiency in identification/tracking of objects in scenes. A descriptor is created to each vertex of graph, from orientation histograms of the gradient of bins around the vertex, calculated to ensure, as the SIFT, a scale, rotation and lighting invariance. The contributions of the proposed descriptor in the segmentation of objects in video, performed by a graph cut, are tested on three levels: the adjustment or compensation of the movement of object in scenes; the strengthening of the connection weights between edges of the graphs for the elements considered matches between frames and; the determination of equivalent graphs with reduction in the number elements guided by matches found through the proposed algorithm.
Description: Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016.
Licença:: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.
Appears in Collections:ENE - Mestrado em Engenharia Elétrica (Dissertações)

Show full item record Recommend this item " class="statisticsLink btn btn-primary" href="/handle/10482/21250/statistics">



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.