Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/114582
Title: Deep Learning Interpretability Methods for Cancer Medical Imaging
Other Titles: Métodos de Interpretabilidade de Aprendizagem Profunda para Imagiologia Médica do Cancro
Authors: Amorim, José Pedro Pereira
Orientador: Santos, João António Miranda dos
Abreu, Pedro Manuel Henriques da Cunha
Keywords: IA explicável; imagiologia médica; aprendizagem profunda; cancro; interpretabilidade; deep learning; explainable AI; interpretability; medical imaging; cancer
Issue Date: 20-Jul-2023
Serial title, monograph or event: Deep Learning Interpretability Methods for Cancer Medical Imaging
Place of publication or event: DEI-FCTUC
Abstract: As técnicas de Inteligência Artificial (IA) provaram ser bem-sucedidas numa variedade de contextos.Em particular, as técnicas de aprendizagem profunda alcançaram resultados de nível humano em tarefas de imagens médicas, mas o seu uso em contextos reais é limitado devido à sua inerente falta de interpretabilidade.Incluída no contexto de inteligência artificial explicável, interpretabilidade é entendida como um conjunto de técnicas ou propriedades de modelo que tornam o processo de geração de saída do sistema explicável e compreensível para humanos.Apesar do progresso, ainda há muitos desafios a serem enfrentados, incluindo os seguintes: (1) falta de terminologia padrão em relação à IA interpretável (2) aumento da complexidade dos modelos para melhor desempenho sacrificando a sua interpretabilidade, (3) falta de confiabilidade de algumas técnicas de interpretabilidade e variabilidade de resultados entre si, e (4) falta de métricas de interpretabilidade e verdades fundamentais.Nesta tese, tentamos enfrentar o desafio (1) ao desenvolver uma taxonomia global de IA interpretável que possa ser usada por múltiplas partes interessados, como desenvolvedores, médicos e advogados.Relativamente ao desafio (2) desenvolvemos uma abordagem para transferir o conhecimento de uma rede complexa para um modelo mais simples, aumentando a interpretabilidade e mantendo o desempenho; também estudamos o efeito da regularização na qualidade das explicações e demonstramos que valores que menor regularização em geral produzem melhores explicações.Em relação ao desafio (3) avaliamos diferentes técnicas de interpretabilidade com base na robustez ao ruído natural e descobrimos que algumas técnicas eram mais robustas do que outras.Quanto ao desafio (4) desenvolvemos uma abordagem de avaliação e propusemos várias métricas de interpretabilidade, além disso, propomos uma abordagem para obter uma verdade fundamental com base em técnicas de interpretabilidade.
Artificial Intelligence (AI) techniques have proven to be successful in a variety of contexts.In particular, Deep Learning techniques have achieved human-level results in medical imaging tasks, but their use in real-world contexts has been limited due to their inherent lack of interpretability.Enclosed in the context of eXplainable AI, interpretability is understood as a set of techniques or model properties that make the output generation process of the system explainable and understandable to humans.Despite several progress developed in the area, there are still many challenges to be tackled, including the following: (1) lack of standard terminology of interpretability AI, (2) increase of complexity of the models for better performance sacrificing their interpretability, (3) unreliability of some interpretability techniques and variability of results between each other, and (4) lack of interpretability metrics and ground-truths. In this thesis, we attempted to address the challenge (1) by developing a global taxonomy of interpretable AI that could be used by multiple stakeholders such as developers, physicians, and lawyers.Concerning challenge (2) we developed an approach to transfer the knowledge of a complex network to a simpler model maintaining interpretability and increasing performance; we also studied the effect of regularization of the quality of explanations and show that overall smaller regularization values produce better explanations.With regard to challenge (3) we evaluate different interpretability techniques based on the robustness to natural noise and found that some techniques were more robust than others.As for challenge (4) we developed an evaluation approach and proposed various interpretability metrics, moreover we propose an approach to obtain a ground-truth based on interpretability techniques.
Description: Tese de Doutoramento em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia
URI: https://hdl.handle.net/10316/114582
Rights: openAccess
Appears in Collections:UC - Teses de Doutoramento

Files in This Item:
File SizeFormat
PhD_Thesis_JA_After_Defense.pdf5.83 MBAdobe PDFView/Open
Show full item record

Page view(s)

45
checked on Apr 30, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons