Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/114582
DC FieldValueLanguage
dc.contributor.advisorSantos, João António Miranda dos-
dc.contributor.advisorAbreu, Pedro Manuel Henriques da Cunha-
dc.contributor.authorAmorim, José Pedro Pereira-
dc.date.accessioned2024-04-01T16:45:56Z-
dc.date.available2024-04-01T16:45:56Z-
dc.date.issued2023-07-20-
dc.date.submitted2024-04-01-
dc.identifier.urihttps://hdl.handle.net/10316/114582-
dc.descriptionTese de Doutoramento em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractAs técnicas de Inteligência Artificial (IA) provaram ser bem-sucedidas numa variedade de contextos.Em particular, as técnicas de aprendizagem profunda alcançaram resultados de nível humano em tarefas de imagens médicas, mas o seu uso em contextos reais é limitado devido à sua inerente falta de interpretabilidade.Incluída no contexto de inteligência artificial explicável, interpretabilidade é entendida como um conjunto de técnicas ou propriedades de modelo que tornam o processo de geração de saída do sistema explicável e compreensível para humanos.Apesar do progresso, ainda há muitos desafios a serem enfrentados, incluindo os seguintes: (1) falta de terminologia padrão em relação à IA interpretável (2) aumento da complexidade dos modelos para melhor desempenho sacrificando a sua interpretabilidade, (3) falta de confiabilidade de algumas técnicas de interpretabilidade e variabilidade de resultados entre si, e (4) falta de métricas de interpretabilidade e verdades fundamentais.Nesta tese, tentamos enfrentar o desafio (1) ao desenvolver uma taxonomia global de IA interpretável que possa ser usada por múltiplas partes interessados, como desenvolvedores, médicos e advogados.Relativamente ao desafio (2) desenvolvemos uma abordagem para transferir o conhecimento de uma rede complexa para um modelo mais simples, aumentando a interpretabilidade e mantendo o desempenho; também estudamos o efeito da regularização na qualidade das explicações e demonstramos que valores que menor regularização em geral produzem melhores explicações.Em relação ao desafio (3) avaliamos diferentes técnicas de interpretabilidade com base na robustez ao ruído natural e descobrimos que algumas técnicas eram mais robustas do que outras.Quanto ao desafio (4) desenvolvemos uma abordagem de avaliação e propusemos várias métricas de interpretabilidade, além disso, propomos uma abordagem para obter uma verdade fundamental com base em técnicas de interpretabilidade.por
dc.description.abstractArtificial Intelligence (AI) techniques have proven to be successful in a variety of contexts.In particular, Deep Learning techniques have achieved human-level results in medical imaging tasks, but their use in real-world contexts has been limited due to their inherent lack of interpretability.Enclosed in the context of eXplainable AI, interpretability is understood as a set of techniques or model properties that make the output generation process of the system explainable and understandable to humans.Despite several progress developed in the area, there are still many challenges to be tackled, including the following: (1) lack of standard terminology of interpretability AI, (2) increase of complexity of the models for better performance sacrificing their interpretability, (3) unreliability of some interpretability techniques and variability of results between each other, and (4) lack of interpretability metrics and ground-truths. In this thesis, we attempted to address the challenge (1) by developing a global taxonomy of interpretable AI that could be used by multiple stakeholders such as developers, physicians, and lawyers.Concerning challenge (2) we developed an approach to transfer the knowledge of a complex network to a simpler model maintaining interpretability and increasing performance; we also studied the effect of regularization of the quality of explanations and show that overall smaller regularization values produce better explanations.With regard to challenge (3) we evaluate different interpretability techniques based on the robustness to natural noise and found that some techniques were more robust than others.As for challenge (4) we developed an evaluation approach and proposed various interpretability metrics, moreover we propose an approach to obtain a ground-truth based on interpretability techniques.eng
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectIA explicávelpor
dc.subjectimagiologia médicapor
dc.subjectaprendizagem profundapor
dc.subjectcancropor
dc.subjectinterpretabilidadepor
dc.subjectdeep learningeng
dc.subjectexplainable AIeng
dc.subjectinterpretabilityeng
dc.subjectmedical imagingeng
dc.subjectcancereng
dc.titleDeep Learning Interpretability Methods for Cancer Medical Imagingeng
dc.title.alternativeMétodos de Interpretabilidade de Aprendizagem Profunda para Imagiologia Médica do Cancropor
dc.typedoctoralThesis-
degois.publication.locationDEI-FCTUC-
degois.publication.titleDeep Learning Interpretability Methods for Cancer Medical Imagingeng
dc.peerreviewedyes-
dc.identifier.tid101734220-
dc.subject.fosCiências da engenharia e tecnologias::Engenharia electrotécnica, electrónica e informática-
thesis.degree.disciplineEngenharia Informática-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.nameDoutoramento em Engenharia Informática-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Engenharia Informática-
uc.degree.grantorID0500-
uc.contributor.authorAmorim, José Pedro Pereira::0000-0002-9477-0078-
uc.degree.classificationAprovado com Distinção e Louvor-
uc.degree.presidentejuriHenriques, Jorge Manuel Oliveira-
uc.degree.elementojuriRadeva, Petia Ivanova-
uc.degree.elementojuriFernandez-Maloigne, Christine-
uc.degree.elementojuriOliveira, Arlindo Manuel Limede de-
uc.degree.elementojuriAbreu, Pedro Manuel Henriques da Cunha-
uc.degree.elementojuriSilva, Catarina Helena Branco Simões da-
uc.contributor.advisorSantos, João António Miranda dos-
uc.contributor.advisorAbreu, Pedro Manuel Henriques da Cunha-
item.cerifentitytypePublications-
item.languageiso639-1en-
item.fulltextCom Texto completo-
item.grantfulltextopen-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairetypedoctoralThesis-
Appears in Collections:UC - Teses de Doutoramento
Files in This Item:
File SizeFormat
PhD_Thesis_JA_After_Defense.pdf5.83 MBAdobe PDFView/Open
Show simple item record

Page view(s)

48
checked on May 15, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons