Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/114233
Title: Towards the interpretation of Machine Learning seizure prediction models
Other Titles: Em direcção à interpretação de modelos de Machine Learning para previsão de crises
Authors: Pinto, Mauro Filipe da Silva
Orientador: Teixeira, César Alexandre Domingues
Martins, Pedro José Mendes
Keywords: Epilepsia; Previsão de crises; Electroencefalograma; Explicabilidade; Machine Learning; Epilepsy; Seizure Prediction; Electroencephalogram; Explainability; Machine Learning
Issue Date: 12-Jan-2023
Project: info:eu-repo/grantAgreement/FCT/3599-PPCDT/PTDC/EEI-EEE/5788/2020/PT
info:eu-repo/grantAgreement/FCT/6817 - DCRRNI ID/UIDP/00326/2020/PT
info:eu-repo/grantAgreement/FCT/POR_CENTRO/SFRH/BD/139757/2018/PT 
Serial title, monograph or event: Towards the interpretation of Machine Learning seizure prediction models
Place of publication or event: Departamento de Engenharia Informática da Faculdade de Ciências e Tecnologia da Universidade de Coimbra
Abstract: A previsão de crises epilépticas é um problema de análise e classificação de janelas consecutivas ao longo do tempo. Os métodos existentes, que usam o sinal electroencefalográfico, contêm maioritariamente modelos de Machine Learning (ML}. Como estes lidam com dados multidimensionais, tornam-se caixas negras, não oferecendo confiança aos clínicos em decisões de alto risco. Apesar de décadas de investigação, poucos dispositivos chegaram a um ensaio clínico ou foram comercializados onde, abordagens mais recentes (como redes neuronais) acabam por não ser totalmente exploradas. A ausência de explicações para modelos considerados caixas negras, especialmente quando estes falham, aumenta o cepticismo dos clínicos.O principal objectivo desta tese é desenvolver soluções que permitam uma melhor comunicação para equipas multidisciplinares que trabalhem em previsão de crises epilépticas, o que requereu o trabalho conjunto de domínios da engenharia, como processamento de sinal e ML, com ferramentas das ciências sociais. Usaram-se os dados electroencefalográficos de escalpe da base de dados EPILEPSIAE. Esta tese divide-se em três contribuições principais.A primeira contribuição é um estudo sociológico onde, com base na literatura, se tentou encontrar as barreiras sociais existentes na área de previsão de crises. Usaram-se duas ferramentas: Teoria Fundamentada, que permitiu desenvolver hipóteses a partir dos dados recolhidos, e Teoria Actor-Rede, que considerou o papel activo da tecnologia ao moldar configurações sociais. Obteve-se uma rede social que descreve o ecossistema desta área de investigação, propondo-se directrizes para acelerar o processo de aceitação clínica de modelos matemáticos. A conclusão mais relevante é: apesar de ser necessário explicar os modelos, estes não precisam de ser intrinsecamente interpretáveis. É possível desenvolver modelos com um certo grau de complexidade, desde que consigam explicar as suas decisões de forma humanamente compreensível. Devido ao cepticismo e motivos baseados numa legislação ainda vaga, muitos investigadores advogam o uso exclusivo de modelos interpretáveis, o que pode limitar a performance e o potencial desta tecnologia. Esta contribuição mostra um caminho possível, através da explicabilidade, para permitir a aplicação clínica de modelos computacionalmente mais complexos.A segunda contribuição é uma metodologia evolucionária de previsão de crises que devolve um modelo de regressão logística interpretável. Esta metodologia identifica o melhor conjunto de cinco preditores enquanto procura o período pré-ictal e considera o conforto do doente. Ao fornecer conhecimento especializado para cada doente e generalizado para todos os doentes, pode contribuir para um melhor entendimento acerca do processo de geração de crises e das decisões de cada modelo. Testou-se esta metodologia quase-prospectivamente em dados contínuos, pertencentes a 93 doentes que sofrem de vários tipos de epilepsias focais e generalizadas. Esta metodologia teve significância estatística para 32% dos doentes através de uma análise surrogate, e foi comparada com um método de controlo baseado na literatura (pré-processamento, extracção de características, classificação, pós-processamento). Os resultados evidenciam a necessidade de desenvolver diferentes metodologias para diferentes modelos.A terceira contribuição consistiu na avaliação de explicabilidade de modelos por parte de especialistas em ML e epilepsia. Desenvolveram-se três metodologias de ML: uma regressão logística, um sistema de voto de 15 Support Vector Machines, e um sistema de voto de três Redes de Convolução Neuronais. Testaram-se as metodologias quase-prospectivamente em 40 doentes. Seleccionaram-se doentes com alta e baixa performance para se desenvolverem explicações acerca dos respectivos modelos. Estas explicações foram apresentadas, em entrevista, a cientistas de dados que trabalham em problemas clínicos e a clínicos de um centro de epilepsia refractária. Da análise das entrevistas, resultaram cinco lições para melhorar a comunicação de modelos de ML. A descoberta mais significativa foi que o objectivo da explicabilidade não é só explicar as decisões do sistema, mas melhorar a metodologia em si. Foi ainda importante reforçar que, apesar de se terem utilizado preditores clinicamente intuitivos e conhecidos do estado da arte juntamente com modelos simples, foi difícil interpretar os resultados e obter conhecimento acerca das dinâmicas cerebrais. Pode-se atingir um aumento da explicabilidade ao desenvolverem-se, em paralelo, sistemas que lidem explicitamente com mudanças nas dinâmicas cerebrais que ajudem a obter uma definição mais completa do problema.Como estas contribuições usaram dados de monitorização pré-cirúrgica, os resultados obtidos deverão ser interpretados como uma prova de conceito. Estas metodologias deverão ser replicadas com dados de longa duração da vida real.
Seizure prediction concerns a multidimensional time-series problem that typically performs continuous sliding window analysis and classification. Current state-of-the-art methods using the electroencephalogram signal are based on Machine Learning (ML) models that are mainly black boxes, weakening the trust of clinicians for high-risk decisions. Despite decades of research, few devices/systems underwent clinical trials and/or are commercialised, where these do not use the most recent approaches, such as neural networks, to their full potential. The absence of explanations for black-box models, especially when they fail, makes researchers and clinicians question and mistrust their use, thus raising scepticism. The main objective of this thesis is to make a step forward concerning more effective communication within multidisciplinary teams, which required the joint work of engineering domain techniques, such as signal processing and ML, with tools from social sciences. The analysed patient data comprises scalp recordings provided by the EPILEPSIAE database. This thesis comprises three main contributions.The first is a sociological study of this research field. Based on the literature, a qualitative study was made to find social barriers concerning the clinical application of seizure prediction algorithms. Two tools were used: while Grounded Theory allows the draw of hypotheses from data, Actor-Network Theory considers that technology shapes social configurations and interests. A social network was obtained, describing this research field ecosystem and proposing research guidelines for clinical acceptance. The most relevant conclusion is the need for model explainability, but not necessarily intrinsically interpretable models. Due to general scepticism, patient safety reasons, and purposely vague legislation on black-box algorithms for high-risk decisions, many authors advocate using only transparent models, limiting their performance and potential. Nevertheless, according to the study conducted in this thesis, researchers may develop robust prediction models, including black-box systems, to some extent, as long as they can deliver human-comprehensible explanations. This contribution highlights a path, by using model explainability, on how to allow the use of more computationally robust models.The second contribution is an evolutionary seizure prediction framework whose output is a logistic regression model. The framework identifies the best set of five features (widely explored in the literature) while automatically searching for the preictal period and accounting for patient comfort. It provides patient-specific and patient-general interpretable insights, which might be helpful in better understanding seizure generation processes and explaining the algorithm's decisions. This methodology was quasi-prospectively tested on continuous data, comprising recordings from 93 patients with several types of focal and generalised epilepsies. Performed above chance was achieved for 32% of patients. The results were compared with a seizure surrogate predictor and a control method based on a typical ML pipeline (pre-processing, feature extraction, classification, and post-processing). The obtained findings may evidence the need for patient-specific methodologies.The third contribution is the evaluation of model explainability by data scientists and epilepsy specialists. Three ML methodologies containing different model transparency levels were developed: a logistic regression, an ensemble of fifteen Support Vector Machines, and an ensemble of three Convolutional Neural Networks. Each methodology was quasi-prospectively evaluated in 40 patients. Patients with high and low performances were chosen to develop explanations. These were presented, during interviews, to data scientists working in healthcare and clinicians from an epilepsy refractory centre. The interviews were analysed and resulted in five lessons leading to better communication of ML models from researchers to clinicians. The most significant finding was that the goal of explainability is not merely to explain the system's decisions but to improve the system itself by questioning the assumptions it is based on. It is hard to understand and interpret brain dynamics even using simple models with state-of-the-art features. In this study, it was possible to conclude that designing several models that explicitly deal with changes in signal dynamics helps develop a complete problem formulation and improve explainability.Since these contributions used data from pre-surgical monitoring conditions, the obtained findings should be interpreted as proofs of concepts. These methodologies must be replicated in studies using ultra-long-term recordings which concern real-life conditions.
Description: Tese de Doutoramento em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia
URI: https://hdl.handle.net/10316/114233
Rights: openAccess
Appears in Collections:UC - Teses de Doutoramento

Files in This Item:
File SizeFormat
PhDThesis.pdf13.43 MBAdobe PDFView/Open
Show full item record

Page view(s)

9
checked on Apr 24, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons