Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/97987
DC FieldValueLanguage
dc.contributor.advisorPaiva, Rui Pedro Pinto de Carvalho e-
dc.contributor.authorLebreiro, Ana Sofia Besteiro-
dc.date.accessioned2022-02-02T23:02:43Z-
dc.date.available2022-02-02T23:02:43Z-
dc.date.issued2021-11-10-
dc.date.submitted2022-02-02-
dc.identifier.urihttps://hdl.handle.net/10316/97987-
dc.descriptionDissertação de Mestrado em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractAs patologias do foro respiratório são das mais mortíferas em todo o mundo. A maioria dos pacientes com doenças respiratórias possuem uma respiração caraterizada pela existência de sons adventícios, como sibilâncias e fervores, ao longo do ciclo respiratório.Neste trabalho propomos estudar a aplicabilidade de arquiteturas de aprendizagem profunda para classificar e segmentar automaticamente sons adventícios (sibilâncias e fervores) e sons normais existentes nos ciclos respiratórios dos pacientes. Serão avaliadas diversas arquiteturas de aprendizagem profundas como CNN, LSTM e outras variantes, assim como modelos clássicos SVM e KNN, em conjunto com técnicas de processamento de som, de forma a criar modelos otimizados, tanto em ambientes controlados como em ambientes reais de operação.Na fase de classificação de eventos pré segmentados manualmente, compararam-se abordagens clássicas de feature engineering e machine learning, e modelos de classificação de aprendizagem profunda com diferentes tipos de features de entrada. A metodologia adotada passou por um pré-processamento dos ficheiros de áudio através da filtragem do som de forma a concentrar a análise na gama de frequências relevantes para o estudo. A partir do som filtrado foram extraídas features para construir diferentes conjuntos de dados a aplicar nos classificadores. De forma a conhecer melhor os dados e a proceder-se a uma seleção de features, foi realizada uma análise exploratória. A seleção foi realizada a partir de dois algoritmos distintos para compreender o desempenho dos classificadores com diferentes features evitando redundância de dados. Os classificadores foram avaliados segundo a base de dados Respiratory Sound Database, calculando várias métricas estatísticas. O classificador CNN alcançou um resultado máximo 81% de accuracy e 81% de sensibilidade superando os classificadores clássicos com resultados máximos de 76,17%. Na fase de segmentação automática e classificação, foram explorados diversos mecanismos para aplicar a segmentação sonora, prosseguindo para uma classificação frame a frame com vista a identificar a localização temporal dos eventos adventícios. A avaliação desta fase foi realizada a diferentes níveis: frame a frame detetando 48,4% das frames de sibilâncias e 50,1% de fervores, por evento e por paciente.por
dc.description.abstractRespiratory pathologies are among the deadliest in the world. Most patients with respiratory diseases have a breathing characterized by adventitious sounds, such as wheezes and crackles, throughout the respiratory cycle.In this work we propose to study the applicability of deep learning architectures to automatically classify and segment adventitious sounds (wheezes and crackles) and normal sounds existing in patients' breathing cycles. Several deep learning architectures such as CNN, LSTM and other variants will be evaluated, as well as some classical models, i.e., SVM and KNN, together with sound processing techniques, in order to create optimized models, both in controlled environments and in real-life operation scenarios.In the phase of event classification of manually segmented events, classical feature engineering and machine learning approaches were compared against deep learning classification models with different types of input features. The methodology adopted involved the pre-processing of audio files through sound filtering, in order to focus the analysis on the range of frequencies relevant to the study. From some filters, resources were extracted to build different datasets to be applied to the classifiers. In order to better understand the data and proceed with a selection of resources, an exploratory analysis was performed. The selection was carried out using two different algorithms to understand the performance of the classifiers with different features, avoiding data redundancy. The classifiers were evaluated using the Respiratory Sound Database, calculating various statistical metrics. The best results obtained by the CNN classifier were 81% accuracy and 81% recall, beating the classic classifiers which obtained maximum results of 76,17%In the automatic segmentation and classification phase, several mechanisms were explored to perform sound segmentation, proceeding to a frame-by-frame classification in order to identify the temporal location of adventitious events. The evaluation of this phase was carried out at different levels: frame by frame, which detected 48,4% of the wheezes frames and 50,1% of the crackles, by event and by patient.eng
dc.description.sponsorshipUniversidade de Coimbra - O trabalho foi financiado através de uma Bolsa de Investigação com o nº de referência UIDB/00326/2020_L.726806, no âmbito do projeto de I&D Centro de Informática e Sistemas da Universidade de Coimbra, com a referência UIDB/00326/2020, com uma duração de quatro meses.-
dc.language.isopor-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectFeatures Engineeringpor
dc.subjectSegmentaçãopor
dc.subjectClassificaçãopor
dc.subjectSons Respiratórios Adventíciospor
dc.subjectAprendizagem Profundapor
dc.subjectFeatures Engineeringeng
dc.subjectSegmentationeng
dc.subjectClassificationeng
dc.subjectAdventitious Respiratory Soundseng
dc.subjectDeep Learningeng
dc.titleDeep Learning para Segmentação e Classificação Automática de Sons Respiratórios Adventíciospor
dc.title.alternativeDeep Learning for Segmentation and Automatic Classification of Adventitious Breathing Soundseng
dc.typemasterThesis-
degois.publication.locationDEI- FCTUC-
degois.publication.titleDeep Learning para Segmentação e Classificação Automática de Sons Respiratórios Adventíciospor
dc.peerreviewedyes-
dc.identifier.tid202921050-
thesis.degree.disciplineInformática-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado em Engenharia Informática-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Engenharia Informática-
uc.degree.grantorID0500-
uc.contributor.authorLebreiro, Ana Sofia Besteiro::0000-0002-9683-1305-
uc.degree.classification18-
uc.degree.presidentejuriRela, Mário Alberto da Costa Zenha-
uc.degree.elementojuriMartins, Pedro José Mendes-
uc.degree.elementojuriPaiva, Rui Pedro Pinto de Carvalho e-
uc.contributor.advisorPaiva, Rui Pedro Pinto de Carvalho e::0000-0003-3215-3960-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairetypemasterThesis-
item.cerifentitytypePublications-
item.grantfulltextopen-
item.fulltextCom Texto completo-
item.languageiso639-1pt-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
MSc Tese Sofia Lebreiro (final).pdf6.45 MBAdobe PDFView/Open
Show simple item record

Page view(s)

61
checked on Apr 17, 2024

Download(s)

72
checked on Apr 17, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons