Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/87965
DC FieldValueLanguage
dc.contributor.advisorPerdigão, Fernando Manuel dos Santos-
dc.contributor.advisorMenezes, Paulo Jorge Carvalho-
dc.contributor.authorAssunção, Gustavo Miguel Santos-
dc.date.accessioned2019-11-18T23:30:06Z-
dc.date.available2019-11-18T23:30:06Z-
dc.date.issued2019-06-05-
dc.date.submitted2019-11-18-
dc.identifier.urihttps://hdl.handle.net/10316/87965-
dc.descriptionDissertação de Mestrado Integrado em Engenharia Electrotécnica e de Computadores apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractA noção de reconhecer emoções humanas tem, recentemente, vindo a receber considerável atenção por parte da comunidade científica, devido às suas variadas aplicações forenses e potencial melhoramento de sistemas interactivos. Assim sendo, e seguindo a actual tendência de investigação, bastantes modelos de machine learning têm sido propostos com foco na questão de reconhecimento de emoções na fala (SER), o conceito de classificar o estado emocional de uma pessoa com base na análise da sua fala. Estes modelos já deveras ultrapassaram a performance de outras técnicas clássicas a eles precedentes. Não obstante, mesmo os modelos com mais sucesso incorporam um certo nível de défice em relação à adaptação a locutores e cenários específicos, fazendo com que sejam incapazes de atingir os padrões de performance real humana. Nesta dissertação, um modelo de machine learning de grande escala é avaliado para classificação de estados emocionais. Este modelo foi treinado para identificação de locutor mas é, ao invés, aqui usado como uma componente basilar para a extracção de características robustas de fala emocional. A hipótese aqui proposta é que a adaptação à prosódia emocional de um locutor pode seriamente melhorar a precisão de sistemas SER. Diversas experiências foram feitas usando vários classificadores de estado-da-arte, com recurso ao software Weka, de vista a avaliar a robustez das características extraídas. Foram observados melhoramentos consideráveis quando comparados os resultados obtidos com outras técnicas de SER de estado-da-arte, demonstrando então a importância de adaptação ao locutor nesta matéria.por
dc.description.abstractThe idea of recognizing human emotion has recently received considerable attention from the research community, due to its many possible forensic applications and potential boosting of interactive systems. As such, and following the current trend of research, many machine learning models have been proposed addressing the interesting topic of speech emotion recognition (SER), the idea of classifying a person's emotional state based on speech analysis. These models have far surpassed the performance of previous classical techniques. Nevertheless, even the most successful methods are still rather lacking in terms of adaptation to specific speakers and scenarios, which causes them to be incapable of meeting real human performance standards. In this dissertation, a large scale machine learning model for classification of emotional states is evaluated. This model has previously been trained for speaker identification but is instead used here as a front-end for extracting robust features from emotional speech. The proposed hypothesis is that adaptation to a speaker's emotional prosody can greatly improve the accuracy of a SER system. Several experiments using various state-of-the-art classifiers were carried out, using the Weka software, in order to evaluate the robustness of the extracted features. Considerable improvement was observed when comparing the obtained results with other SER state-of-the-art techniques, which demonstrates the importance of speaker adaptation in this matter.eng
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectreconhecimento de emoções na falapor
dc.subjectCNNpor
dc.subjectVGGpor
dc.subjectprocessamento de sinalpor
dc.subjectmachine learningpor
dc.subjectspeech emotion recognitioneng
dc.subjectCNNeng
dc.subjectVGGeng
dc.subjectsignal processingeng
dc.subjectmachine learningeng
dc.titleHuman Emotion Recognition Through Speech Analysis on Convolutional Neural Networkseng
dc.title.alternativeReconhecimento de Emoções Humanas por Análise da Fala em Redes Neuronais Convolucionaispor
dc.typemasterThesis-
degois.publication.locationInstituto de Sistemas e Robótica, DEEC-
degois.publication.titleHuman Emotion Recognition Through Speech Analysis on Convolutional Neural Networkseng
dc.peerreviewedyes-
dc.identifier.tid202306194-
thesis.degree.disciplineEngenharia Electrotécnica e de Computadores-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado Integrado em Engenharia Electrotécnica e de Computadores-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Eng. Electrotécnica e de Computadores-
uc.degree.grantorID0500-
uc.contributor.authorAssunção, Gustavo Miguel Santos::0000-0003-4015-4111-
uc.degree.classification19-
uc.degree.presidentejuriBatista, Jorge Manuel Moreira de Campos Pereira-
uc.degree.elementojuriMenezes, Paulo Jorge Carvalho-
uc.degree.elementojuriPeixoto, Paulo José Monteiro-
uc.contributor.advisorPerdigão, Fernando Manuel dos Santos-
uc.contributor.advisorMenezes, Paulo Jorge Carvalho-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairetypemasterThesis-
item.cerifentitytypePublications-
item.grantfulltextopen-
item.fulltextCom Texto completo-
item.languageiso639-1en-
crisitem.advisor.deptFaculty of Sciences and Technology-
crisitem.advisor.parentdeptUniversity of Coimbra-
crisitem.advisor.researchunitIT - Institute of Telecommunications-
crisitem.advisor.researchunitISR - Institute of Systems and Robotics-
crisitem.advisor.parentresearchunitUniversity of Coimbra-
crisitem.advisor.orcid0000-0002-8980-1992-
crisitem.advisor.orcid0000-0002-4903-3554-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
dissertacao_Gustavo_Assunção.pdf2.83 MBAdobe PDFView/Open
Show simple item record

Page view(s)

219
checked on Apr 16, 2024

Download(s)

259
checked on Apr 16, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons