Use este identificador para citar ou linkar para este item:
https://repositorio.ufpe.br/handle/123456789/36910
Compartilhe esta página
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | ZANCHETTIN, Cleber | - |
dc.contributor.author | SANTOS, Aline Gondim | - |
dc.date.accessioned | 2020-03-09T21:10:17Z | - |
dc.date.available | 2020-03-09T21:10:17Z | - |
dc.date.issued | 2019-12-12 | - |
dc.identifier.citation | SANTOS, Aline Gondim. Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda. 2019. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2019. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/36910 | - |
dc.description.abstract | Nos últimos anos as Redes Neurais Profundas ou Deep Neural Networks (DNNs) se tornaram o estado da arte em diversos campos de pesquisa como Visão Computacional, Processamento de Linguagem Natural, Diagnóstico por Imagem, Sistemas de Recomendação, entre outros. O surpreendente é que elas chegaram nesse ponto poucos anos após uma Rede Neural Convolucional ou Convolutional Neural Network (CNN), a AlexNet, ter ganho notoriedade ao ser a vencedora da competição da ImageNet (ILSVRC) em 2012. Além do interesse proveniente dos resultados que a AlexNet apresentou na competição, o surgimento de bibliotecas de código aberto e a publicação de artigos em conjunto com seus códigos-fonte também impulsionaram o crescimento da área. Depois da AlexNet, surgiram diversas outras arquiteturas, dentre elas destacam-se, por exemplo, redes como a VGG, a GoogleLeNet, a ResNet e a Pix-2-Pix. Acompanhando o ritmo acelerado da comunidade acadêmica, logo pesquisadores passaram a desejar implantar aplicações baseadas em CNNs em ambientes reais. Muitas dessas aplicações precisam ser processadas em dispositivos com poucos recursos computacionais e, nesse ponto, os desenvolvedores se depararam com problemas relacionados às limitações de suas plataformas. Para atender a necessidade de redes mais eficientes, surgiram diversas técnicas de otimização de arquiteturas. Essas técnicas podem ser divididas entre as que são aplicadas durante ou após o treinamento dos modelos e aquelas que são aplicadas antes do seu treinamento. No primeiro dos grupos se consideram técnicas como a Poda e a Quantização e, no segundo grupo estão técnicas como a Convolução Separável em Profundidade ou Dephtwise Separable Convolution (DSC), a Mistura de Canais da ShuffleResNet, o Deslocamento de Canais da ShiftNet e as Contrações e Expansões da SqueezeNet. Esta dissertação propõe o estudo comparativo da utilização de diferentes técnicas de otimização nos modelos CNNs. Para tal, é proposta a implementação da DSC, e dos módulos de Mistura e de Deslocamento de Canais nas redes SqueezeNet, ResNet e Pix-2-Pix. Os experimentos são conduzidos nas bases de dados CIFAR 10 e CIFAR 100, nas duas primeiras redes e com a base maps←→satellite na última rede. Os resultados obtidos formam um conjunto de referência que futuros desenvolvedores podem utilizar como guia na escolha entre as técnicas de otimização aqui investigadas. | pt_BR |
dc.language.iso | por | pt_BR |
dc.publisher | Universidade Federal de Pernambuco | pt_BR |
dc.rights | embargoedAccess | pt_BR |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
dc.subject | Inteligência computacional | pt_BR |
dc.subject | Redes neurais convolucionais | pt_BR |
dc.subject | Redes generativas adversárias | pt_BR |
dc.title | Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda | pt_BR |
dc.type | masterThesis | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/1537708749916618 | pt_BR |
dc.publisher.initials | UFPE | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.level | mestrado | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/1244195230407619 | pt_BR |
dc.publisher.program | Programa de Pos Graduacao em Ciencia da Computacao | pt_BR |
dc.description.abstractx | Over the past few years, Deep Neural Networks have become state of the art in different research fields such as Computer Vision, Natural Language Process, Image Diagnostics, and Recommendation Systems, among others. It is surprising, however, that they arrived at this point only a few years after a Convolutional Neural Network, the AlexNet, have gained notoriety by being the winner of the ImageNet Challenge (ILSVRC) in 2012. Beyond the interest from the AlexNet’s achieved results in this competition, the emergence of open source libraries and the article’s publication containing the source code algorithms also boosted this research area. After AlexNet, several other architectures emerged, we can highlight the VGG, GoogleLeNet, ResNet, and Pix-2-Pix models. Keeping up with the fast pace of the academic community, many companies soon started to develop CNNs based applications. Many of these applications need to run on devices with low computational resources. At this point, the developers encountered problems related to the limitations of their platforms. To adress the need for more efficient networks, several architecture optimization techniques have emerged. They may be divided into two main strategies: during or after training, where the network architecture is changed interactively and; before training, where the architecture definition is optimization oriented. In the first of these two groups, we have techniques like Prunning and Quantization. In the second group, we have methods like the DephtWise Separable Convolution (DSC), Channel Shuffle, Channel Shift, and the Contraction-Expansion sequence from SqueezeNet. This dissertation proposes a comparative study of the effects of different CNN’s optimization techniques. The implementation of DSC, Channel Shuffle modules, and Channel Shift in the networks SqueezeNet, ResNet, and Pix-2-Pix is proposed. The experiments are conducted in the CIFAR 10 and CIFAR 100 databases for the first two networks and the maps↔satellite database for the last one. The presented results constitute a reference material that developers can use as a guide in choosing among the considered optimization techniques. | pt_BR |
Aparece nas coleções: | Dissertações de Mestrado - Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
DISSERTAÇÃO Aline Gondim Santos.pdf | 3,38 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este arquivo é protegido por direitos autorais |
Este item está licenciada sob uma Licença Creative Commons