Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/48019

Compartilhe esta página

Título: Catalogação de modelos de divergência ativa para aprendizado profundo gerativo
Autor(es): ARAÚJO, João Vitor
Palavras-chave: Divergência Ativa; Aprendizado Profundo Gerativo
Data do documento: 15-Out-2022
Citação: ARAUJO, João Vitor. Catalogação de modelos de Divergência Ativa para Aprendizado Profundo Gerativo. 2022. Trabalho de Conclusão de Curso (Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.
Abstract: A geração de artefatos de arte por algoritmos de Deep Learning, em especial no que se refere à produção de imagens, vem recebendo bastante atenção nos últimos tempos por pesquisadores e artistas entusiastas no geral. Considerando o uso das Redes Neurais Artificiais e métodos de modelagem, como Autoencoders e Generative Adversarial Networks (GANs), é conhecido que o conjunto de artefatos gerados tende a convergir para se adequar ao conjunto de dados de treinamento, como já é esperado dada a própria natureza das redes neurais. No contexto de Criatividade Computacional, as técnicas de Divergência Ativa representam métodos de gerar novos conjuntos que divirjam do(s) conjunto(s) de treinamento de maneira ativa e associativa, permitindo que os artefatos gerados tendam a ser mais originais e únicos, e de uma maneira mais conceitual, mais criativos. Dado o estado atual de pesquisa sobre a área, que carece de documentações centralizadas de exemplos de tais possíveis métodos, o objetivo desse trabalho é suprir tal falta com uma catalogação de projetos que usem desse conceito para a divergência criativa dos artefatos gerados, permitindo a execução dos códigos para testes usando o Google Colab.
URI: https://repositorio.ufpe.br/handle/123456789/48019
Aparece nas coleções:(TCC) - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC João Vitor Oliveira de Araújo.pdf1.5 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons