Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.ufpe.br/handle/123456789/53350
Comparte esta pagina
Registro completo de metadatos
| Campo DC | Valor | Lengua/Idioma |
|---|---|---|
| dc.contributor.advisor | PAULA NETO, Fernando Maciana de | - |
| dc.contributor.author | MARQUES, Gabriel Souza | - |
| dc.date.accessioned | 2023-10-31T13:49:55Z | - |
| dc.date.available | 2023-10-31T13:49:55Z | - |
| dc.date.issued | 2023-09-22 | - |
| dc.date.submitted | 2023-10-03 | - |
| dc.identifier.citation | Marques, Gabriel Souza. Estudo e aplicação de técnicas baseadas em Deep Learning para sistemas de suporte à decisão em diagnósticos de radiografias do tórax. 2023. Trabalho de Conclusão de Curso (Engenharia da Computação) – Universidade Federal de Pernambuco, Recife, 2023. | pt_BR |
| dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/53350 | - |
| dc.description.abstract | Os Sistemas de Apoio à Decisão Clínica (Clinical Decision Support System - CDSS) na área da saúde preenchem a lacuna entre as diretrizes clínicas e as decisões reais de tratamento utilizando dados de pacientes provenientes de diversas fontes. Eles fornecem recomendações de tratamento personalizadas e baseadas em diversos tipos de evidências, como imagens radiográficas. CDSS que utilizam técnicas de aprendizado de máquina (Machine Learning - ML) aprimoraram a análise de radiografias, ultrapassando potencialmente os radiologistas humanos em precisão. Essas técnicas tem o poder de otimizar o fluxo de trabalho, atuando como uma segunda opinião e auxiliando no rastreio de doenças em grande escala. No entanto, a integração com ML em ambientes clínicos apresenta desafios de interpretabilidade. Técnicas de interpretabilidade, como mapas de calor, ajudam os prestadores de cuidados de saúde a compreender as decisões do modelo de ML, levando a diagnósticos mais precisos e a um melhor atendimento ao paciente. Este trabalho tem como objetivo, a partir do treinamento de uma rede neural convolucional para classificação de imagens de radiografias do tórax, a comparação de duas técnicas de interpretabilidade empregadas na geração de mapas de calor - Mapeamento de Ativação de Classe (CAM) e Mapeamento de Ativação de Classe Ponderado por Gradiente (Grad-CAM). O ponto focal da investigação reside em discernir diferenças entre CAM e Grad-CAM, ambas técnicas de interpretabilidade promissoras para desvendar os processos de tomada de decisão de redes neurais profundas. Os resultados fundamentam a hipótese de que o Grad-CAM, supera a precisão de localização do CAM. Além disso, surge uma correlação convincente entre o grau de certeza do modelo e a precisão alcançada pelas técnicas de interpretabilidade na localização de patologias nas radiografias de tórax. Esta conexão ressalta a sinergia potencial entre a certeza diagnóstica e a eficácia das técnicas de interpretabilidade na identificação de regiões anatômicas relevantes. Além disso, o trabalho traduz suas descobertas em aplicações práticas, desenvolvendo uma aplicação de software dedicada. Esta aplicação é elaborada para aproveitar os insights e técnicas derivados do estudo, tornando efetivamente os métodos acessíveis e utilizáveis em cenários do mundo real. | pt_BR |
| dc.format.extent | 30p. | pt_BR |
| dc.language.iso | por | pt_BR |
| dc.rights | openAccess | pt_BR |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
| dc.subject | Sistemas de Suporte à Decisão | pt_BR |
| dc.subject | Radiografias | pt_BR |
| dc.subject | ChestX-ray14 | pt_BR |
| dc.subject | Redes Neurais Convolucionais | pt_BR |
| dc.subject | CheXnet | pt_BR |
| dc.subject | Técnica de Interpretabilidade de CNN | pt_BR |
| dc.subject | CAM | pt_BR |
| dc.subject | GradCam | pt_BR |
| dc.title | Estudo e aplicação de técnicas baseadas em Deep Learning para sistemas de suporte à decisão em diagnósticos de radiografias do tórax. | pt_BR |
| dc.type | bachelorThesis | pt_BR |
| dc.contributor.authorLattes | http://lattes.cnpq.br/8338226043289561 | pt_BR |
| dc.degree.level | Graduacao | pt_BR |
| dc.contributor.advisorLattes | http://lattes.cnpq.br/9643216021359436 | pt_BR |
| dc.description.abstractx | Clinical Decision Support Systems (CDSS) in healthcare bridge the gap between clinical guidelines and actual treatment decisions using patient data from multiple sources. They provide personalized treatment recommendations based on different types of evidence, such as radiographic images. CDSS utilizing machine learning (ML) techniques have improved radiograph analysis, potentially surpassing human radiologists in accuracy. These techniques have the power to optimize workflow, acting as a second opinion and helping to screen for diseases on a large scale. However, integration with ML in clinical settings presents interpretability challenges. Interpretability techniques such as heatmaps help healthcare providers understand ML model decisions, leading to more accurate diagnoses and better patient care. This work aims, based on the training of a convolutional neural network for classifying chest x-ray images, to compare two interpretability techniques used in the generation of heat maps - Class Activation Mapping (CAM) and Gradient-Weighted Class Activation (Grad-CAM). The focal point of the investigation lies in discerning differences between CAM and Grad-CAM, both promising interpretability techniques for unraveling the decision-making processes of deep neural networks. The results support the hypothesis that Grad-CAM,outperforms the localization accuracy of CAM. Furthermore, a convincing correlation emerges between the degree of certainty of the model and the precision achieved by interpretability techniques in localizing pathologies on chest radiographs. This connection highlights the potential synergy between diagnostic certainty and the effectiveness of interpretability techniques in identifying relevant anatomical regions. Furthermore, the work translates its findings into practical applications by developing a dedicated software application. This application is designed to leverage the insights and techniques derived from the study, effectively making the methods accessible and usable in real-world scenarios. | pt_BR |
| dc.subject.cnpq | Ciências Exatas e da Terra::Ciência da Computação | pt_BR |
| dc.degree.departament | ::(CIN-DCC) - Departamento de Ciência da Computação | pt_BR |
| dc.degree.graduation | CIn-Curso de Engenharia da Computação | pt_BR |
| dc.degree.grantor | Universidade Federal de Pernambuco | pt_BR |
| dc.degree.local | Recife | pt_BR |
| dc.identifier.orcid | https://orcid.org/0000-0001-8333-8477 | pt_BR |
| Aparece en las colecciones: | (TCC) - Engenharia da Computação | |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| TCC Gabriel Souza Marques.pdf | 1.87 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este ítem está protegido por copyright original |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons

