Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/65398

Compartilhe esta página

Título: Exploring the latent space: compact representations with autoencoders
Autor(es): PAZ, Anthonny Dayvson Lino
Palavras-chave: Autoencoders; Classification; Data Reconstruction; Dimensionality Reduction; Latent Space
Data do documento: 14-Ago-2025
Citação: PAZ, Anthonny Dayvson Lino; REN, Tsang Ing. Exploring the latent space: compact representations with autoencoders. 2025. 17 f. TCC (Graduação) - Curso de Ciência da Computação, Cin, Universidade Federal de Pernambuco, Recife, 2025.
Abstract: This work analyzes how latent-space size and bottleneck structure affect reconstruction quality and downstream utility in convolutional autoencoders. We implement and evaluate four variants—standard (conv_ae), sparse (conv_sparse), denoising (conv_denoising) and variational (conv_vae)—on CIFAR-10 across five latent dimensions (16, 32, 64, 128, 256). Reconstructions are assessed with MSE, SSIM, PSNR, ERGAS and UQI; latent embeddings are evaluated with supervised classifiers (Logistic Regression, MLP, Random Forest, KNN) and unsupervised clustering (KMeans, GMM, HDBSCAN) using ARI and NMI. Results indi cate that conv_sparse attains the best perceptual reconstruction scores (e.g., MSE ≈ 0.0021, SSIM ≈ 0.89 at d = 256), conv_denoising yields the most discriminative embeddings for classification (best MLP accuracy ≈ 0.5471 at d = 256), and conv_vae underperforms at small d. Unsupervised clustering recovery is weak (ARI/NMI typically < 0.2), motivating future work on contrastive and clustering-aware objectives and modified VAE losses.
URI: https://repositorio.ufpe.br/handle/123456789/65398
Aparece nas coleções:(TCC) - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC - Anthonny Dayvson Lino Paz.pdf5,68 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons