Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.ufpe.br/handle/123456789/62640
Comparte esta pagina
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | SIMÕES, Francisco Paulo Magalhães | - |
dc.contributor.author | PAIVA, Davi Monteiro | - |
dc.date.accessioned | 2025-04-28T11:29:13Z | - |
dc.date.available | 2025-04-28T11:29:13Z | - |
dc.date.issued | 2025-03-31 | - |
dc.date.submitted | 2025-04-15 | - |
dc.identifier.citation | PAIVA, Davi Monteiro. Here comes the SAM: bringing light to black box models applied to video content. 2025. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2025. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/62640 | - |
dc.description | 9.5 | pt_BR |
dc.description.abstract | Este trabalho apresenta um método agnóstico ao modelo que melhora a explicabilidade de modelos caixa-preta aplicados a vídeos, integrando técnicas avançadas de segmentação de vídeo. Propomos utilizar o Segment Anything Model 2 (SAM) para gerar segmentos espacial e temporalmente coerentes e semanticamente significativos, que são posteriormente utilizados em explicações locais baseadas no método Local Interpretable Model-agnostic Explanations (LIME). Ao empregar a segmentação proporcionada pelo SAM, preservamos limites importantes dos objetos e a consistência temporal, proporcionando explicações mais intuitivas e confiáveis. Os resultados experimentais obtidos com o conjunto de dados Kinetics-400, voltados para o reconhecimento de ações, mostram que nossa abordagem gera explicações superiores em comparação com métodos tradicionais, aumentando significativamente a interpretabilidade e a coerência temporal. As melhorias na clareza das explicações proporcionadas por esse método são especialmente importantes em áreas críticas, como vigilância, diagnósticos médicos e sistemas autônomos, onde compreender as decisões tomadas pelos modelos é essencial para garantir confiabilidade e confiança por parte dos usuários. | pt_BR |
dc.format.extent | 28p. | pt_BR |
dc.language.iso | eng | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights.uri | http://creativecommons.org/licenses/by/3.0/br/ | * |
dc.subject | IA explicável | pt_BR |
dc.subject | Segmentação de vídeo | pt_BR |
dc.subject | Explicações agnósticas de modelo | pt_BR |
dc.title | Here comes the SAM: bringing light to black box models applied to video content | pt_BR |
dc.type | bachelorThesis | pt_BR |
dc.contributor.advisor-co | TEICHRIEB, Veronica | - |
dc.contributor.authorLattes | https://lattes.cnpq.br/3091910223862053 | pt_BR |
dc.degree.level | Graduacao | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/4321649532287831 | pt_BR |
dc.description.abstractx | This study presents a novel model-agnostic framework aimed at enhancing the explainability of black-box video models by integrating advanced video segmentation techniques. We propose utilizing the Segment Anything Model 2 (SAM) to generate semantically meaningful and spatio-temporally coherent segments, which we subsequently employ within a Local Interpretable Model-agnostic Explanations (LIME)-inspired approach. Our method addresses the inherent limitations of traditional image-based explainability techniques, such as temporal inconsistency and semantic incoherence when applied to video content. By systematically perturbing these meaningful video segments, we develop intuitive and faithful local surrogate explanations that highlight the model's decision-making process clearly and effectively. Experimental evaluations using the Kinetics-400 action recognition dataset demonstrate that our approach produces superior explanations compared to baseline methods, significantly improving interpretability and temporal coherence. The insights provided by this enhanced explainability framework hold particular relevance for critical domains like surveillance, medical diagnostics, and autonomous systems, where understanding model decisions is essential for reliability and user trust. | pt_BR |
dc.subject.cnpq | Áreas::Ciências Exatas e da Terra::Ciência da Computação | pt_BR |
dc.degree.departament | ::(CIN-DCC) - Departamento de Ciência da Computação | pt_BR |
dc.degree.graduation | ::CIn-Curso de Ciência da Computação | pt_BR |
dc.degree.grantor | Universidade Federal de Pernambuco | pt_BR |
dc.degree.local | Recife | pt_BR |
dc.contributor.advisor-coLattes | http://lattes.cnpq.br/3355338790654065 | pt_BR |
dc.identifier.orcid | https://orcid.org/0009-0002-5133-3043 | pt_BR |
Aparece en las colecciones: | (TCC) - Ciência da Computação |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
TCC davi monteiro paiva.pdf | 1,61 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este ítem está protegido por copyright original |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons