Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/11505

Comparte esta pagina

Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorRen, Tsang Ing -
dc.contributor.authorCosta, André Fonseca-
dc.date.accessioned2015-03-09T14:45:10Z-
dc.date.available2015-03-09T14:45:10Z-
dc.date.issued2013-11-25-
dc.identifier.citationCOSTA, André Fonseca. Classificação de pedestres em imagens degradadas. Recife, 2013. 87 f. Dissertação (mestrado) - UFPE, Centro de Informática, Programa de Pós-graduação em Ciência da Computação, 2013.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/11505-
dc.description.abstractUm detector de pedestres básico geralmente possui dois componentes principais: um que seleciona regiões da imagem que possivelmente contêm um pedestre (gerador de candidatos) e outro que classifica estas regiões em grupos de pedestres e não-pedestres (classificador). Estes classificadores normalmente baseiam-se em extratores de características, que são transformações que alteram a intensidade ou cor original dos pixels de uma imagem em uma nova representação, para ressaltar algum tipo de conhecimento sobre o conteúdo da imagem. Quando o ambiente é não-controlado, fatores externos podem influenciar negativamente no desempenho do classificador. Baixa resolução, ruído, desfoque e oclusão são alguns efeitos que podem ser gerados por estes fatores, degradando a qualidade das imagens obtidas e, consequentemente, das características extraídas. Esta dissertação propõe-se a avaliar como extratores de características comportam-se nesse tipo de ambiente. Estes cinco tipos de degradação foram simulados nas bases de imagem usadas nos experimentos: INRIA Person e Caltech Pedestrian. Como estamos interessados apenas na etapa de classificação, as imagens foram transformadas em janelas de tamanho fixo na etapa de pré-processamento. Os experimentos usam uma combinação de extratores de características (HOG, LBP, CSS, LGIP e LTP) e modelos de aprendizagem (AdaBoost e SVM linear) para formar classificadores. Os classificadores foram treinados com as imagens intactas e testados com imagens em diversos níveis de degradação. O HOG (42%) e LTP (54%) foram superiores aos demais em aproximadamente metade dos pontos de teste na INRIA Person e Caltech Pedestrian, respectivamente. Foi confirmada a queda de desempenho do LBP quando exposto a ruído, mostrando que o LGIP e o LTP amenizam isso. Também observou-se que o CSS é robusto a ruído, mas gera características fracas no geral. Por fim, notou-se que classificadores que combinam mais de um extrator de características foram superiores aos individuais em boa parte dos pontos de teste. Combinando-se todos os extratores, tem-se um classificador superior em 95,8% das situações ao criado somente com o melhor extrator no geral (HOG, na base da INRIA, e LTP, na base da Caltech).pt_BR
dc.description.sponsorshipCapespt_BR
dc.language.isoporpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectClassificação de Pedestrespt_BR
dc.subjectDegradação de Imagempt_BR
dc.subjectHOGpt_BR
dc.subjectLBPpt_BR
dc.subjectCSSpt_BR
dc.subjectLGIPpt_BR
dc.subjectLTPpt_BR
dc.subjectAdaBoostpt_BR
dc.subjectSVMpt_BR
dc.titleClassificação de pedestres em imagens degradadaspt_BR
dc.typemasterThesispt_BR
dc.contributor.advisor-coCavalcanti, George Darmiton da Cunha -
Aparece en las colecciones: Dissertações de Mestrado - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
dissertacao Andre Costa.pdf10,47 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons