Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/64857

Compartilhe esta página

Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorLUDERMIR, Teresa Bernarda-
dc.contributor.authorFRAGOSO, Gabriel Arnaud de Melo-
dc.date.accessioned2025-08-06T12:31:29Z-
dc.date.available2025-08-06T12:31:29Z-
dc.date.issued2025-07-17-
dc.identifier.citationFRAGOSO, Gabriel Arnaud de Melo. Inteligência artificial explicável para detecção de fissuras em concreto armado: uma abordagem pós-hoc combinando técnicas de XAI em eedes neurais convolucionais. 2025. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2025.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/64857-
dc.description.abstractEste trabalho propõe uma abordagem inovadora para aumentar a interpretabilidade de redes neurais convolucionais (CNNs) na tarefa de detecção de fissuras em estruturas de concreto, integrando algoritmos de explicabilidade baseados em visualização, como o Grad-CAM, com técnicas de segmentação não supervisionada, a exemplo do algoritmo K-means. A metodo- logia emprega aprendizado por transferência com arquiteturas consagradas (VGG16, VGG19 e ResNet) alcançando acurácia superior a 99% nos conjuntos de treinamento e teste. Foram avaliadas estratégias de explicabilidade fundamentadas tanto em perturbação do espaço de entrada quanto nos pesos internos das camadas convolucionais. Os resultados indicam que a combinação entre Grad-CAM e K-means aprimora não apenas a acurácia na detecção de fis- suras, mas também a transparência do processo decisório, aspecto crítico para aplicações reais em monitoramento estrutural. Para mensurar objetivamente o grau de explicabilidade dos mo- delos, foi proposta uma nova métrica baseada na sobreposição entre as máscaras geradas pelos mapas de ativação das técnicas de explicabilidade e os segmentos resultantes da clusterização, permitindo avaliar a coerência espacial entre as regiões de interesse destacadas pelo modelo e as áreas efetivamente associadas às fissuras. Embora o desempenho da segmentação tenha sido majoritariamente satisfatório, foram identificadas limitações em imagens com alta com- plexidade visual. A seleção automatizada de camadas mais relevantes para análise foi validada por especialistas em engenharia civil, reforçando a viabilidade prática da proposta. Ressalta-se o ineditismo da abordagem com foco explícito em explicabilidade no contexto da classificação de fissuras em concreto, com código-fonte disponibilizado abertamente no GitHub. Como des- dobramento natural, recomenda-se a investigação de técnicas de segmentação mais robustas e a ampliação do conjunto de dados para abranger maior diversidade de padrões fissurais.pt_BR
dc.language.isoporpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subjectRedes Neurais Convolucionais (CNN)pt_BR
dc.subjectInteligência Artificial Explicável (XAI)pt_BR
dc.subjectEngenharia civil assistida por inteligência artificialpt_BR
dc.titleInteligência artificial explicável para detecção de fissuras em concreto armado : uma abordagem pós-hoc combinando técnicas de XAI em eedes neurais convolucionaispt_BR
dc.typemasterThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/7691650682985246pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/6321179168854922pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxThis study proposes an innovative approach to enhance the interpretability of Convolutional Neural Networks (CNNs) in the task of crack detection in concrete structures, by integrat- ing visualization-based explainability algorithms, such as Grad-CAM, with unsupervised image segmentation techniques, exemplified by the K-means clustering algorithm. The methodology employs transfer learning using well-established architectures (VGG16, VGG19, and ResNet), achieving accuracy rates above 99% on both training and testing datasets. Explainability strategies were evaluated based on both input perturbation methods and the internal weights of convolutional layers. The results indicate that the combination of Grad-CAM and K-means not only improves the accuracy of crack detection but also enhances the transparency of the decision-making process—an essential aspect for real-world applications in structural health monitoring. To objectively quantify model explainability, a novel metric was proposed based on the overlap between the activation maps generated by explainability techniques and the image segments obtained through clustering. This metric enables the assessment of spatial coherence between the model-highlighted regions of interest and the areas actually associated with cracks. Although the segmentation performance was generally satisfactory, limitations were observed in cases involving images with high visual complexity. The automatic selection of the most relevant layers for analysis was validated by civil engineering experts, reinforcing the practical applicability of the proposed method. This work is noteworthy for being one of the first public contributions focused on explainability in the context of concrete crack clas- sification, with its source code openly available on GitHub. For future work, the adoption of more robust segmentation techniques and the expansion of the dataset to include a greater variety of crack patterns are recommended.pt_BR
Aparece nas coleções:Dissertações de Mestrado - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DISSERTAÇÃO Gabriel Arnaud De Melo Fragoso.pdf5,85 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons