Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/110760
DC FieldValueLanguage
dc.contributor.advisorPortugal, David Bina Siassipour-
dc.contributor.advisorFaria, José Nuno da Cruz-
dc.contributor.authorCarreira, David Alexandre Mendes-
dc.date.accessioned2023-11-23T23:10:14Z-
dc.date.available2023-11-23T23:10:14Z-
dc.date.issued2023-10-04-
dc.date.submitted2023-11-23-
dc.identifier.urihttps://hdl.handle.net/10316/110760-
dc.descriptionTrabalho de Projeto do Mestrado em Engenharia Física apresentado à Faculdade de Ciências e Tecnologia-
dc.description.abstractThe COVID-19 pandemic forced educational systems to quickly switch to remote lecturing, raising a debate about the credibility of evaluations, as they became more susceptible to fraud. This motivated the implementation of student monitoring systems, such as TrustID, an image-based deep learning solution with standard face recognition stages (face detection, alignment and representation). Yet, deep learning methods' performance is extremely data dependent and, due to the context where the model is applied, depending on the device used by the student, there are challenges regarding the quality of the acquired data and the device's available processing power. If the student uses a webcam or a smartphone's front facing camera, the resulting images will be highly different in terms of resolution, color, pose, etc. To this extent, the face representation stage is where there is more room for improvement, and an approach capable of handling the previous challenges with better accuracy/computational cost trade-off is explored. This work studies four pre-trained Deep Convolutional Neural Networks methods: iResnet-SE-50, iResnet-18, FaceNet and MobileFaceNet. After being subjected to different benchmarks that mimic real world scenarios, the results and accuracy/resource utilization metrics are analyzed, where MobileFaceNet proves to have the overall superior accuracy/resource trade-off. Then, in an attempt to further improve the model, it is fine-tuned with ArcFace using different layer freezing strategies, and for that, two datasets are selected: DigiFace-1M and QMUL-SurvFace. DigiFace-1M aims to understand how the model reacts to fully synthetic data and to increase the model's performance in pose benchmarks, whereas QMUL-SurvFace, is selected to enhance the model's competence on low quality images.eng
dc.description.abstractA pandemia de COVID-19 forçou os sistemas educacionais a fazerem uma rápida transição para aulas remotas, gerando um debate sobre a credibilidade das avaliações, visto que estas se tornaram mais suscetíveis a fraudes. Isto motivou a implementação de sistemas de monitorização de estudantes, tal como o TrustID, que é uma solução, baseada em images, de deep learning, constituída pelas etapas padrão de um sistema de reconhecimento facial (detecção do rosto, alinhamento e representação). No entanto, o desempenho dos métodos de deep learning é extremamente dependente da informação ao seu dispor e, devido ao contexto em que o modelo é aplicado, dependendo do dispositivo utilizado pelo estudante, surgem desafios relacionados à qualidade dos dados adquiridos e à capacidade de processamento disponível do dispositivo. Se o aluno utilizar uma webcam ou a câmara frontal de um telemóvel, as imagens resultantes serão muito diferentes em termos de resolução, cor, pose, etc. Nesse sentido, a etapa de representação facial é onde há mais espaço para melhorias, e uma abordagem capaz de lidar com os desafios anteriores com melhor equilíbrio entre exatidão e custo computacional é explorada. Este trabalho estuda quatro métodos de Redes Neurais de Convolução Profundas (DCNN) pré-treinadas: iResnet-SE-50, iResnet-18, FaceNet e MobileFaceNet. Após serem submetidos a diferentes testes de avaliação que simulam cenários do mundo real, os resultados e as métricas de exatidão/utilização de recursos são analisados, onde o MobileFaceNet demonstra ter, globalmente, a melhor relação entre exatidão e recursos computacionais. Em seguida, na tentativa de melhorar ainda mais o modelo, este é afinado com o ArcFace usando diferentes estratégias de congelamento de camadas e, para isso, dois conjuntos de imagens foram selecionados: DigiFace-1M e QMUL-SurvFace. O DigiFace-1M visa compreender como o modelo reage a dados totalmente sintéticos e melhorar o desempenho do modelo em benchmarks de pose, enquanto que o QMUL-SurvFace é selecionado para aprimorar a competência do modelo em imagens de baixa qualidade.por
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectDeep Learningeng
dc.subjectFace Recognitioneng
dc.subjectImage Recognitioneng
dc.subjectUser Identification Frameworkeng
dc.subjectContinuous Online Identity Managementeng
dc.subjectDeep Learningpor
dc.subjectReconhecimento Facialpor
dc.subjectReconhecimento de Imagempor
dc.subjectSistema de Identificação do Utilizadorpor
dc.subjectGestão Contínua de Identidade Onlinepor
dc.titleDeep Face Recognition for Online Student Identificationeng
dc.title.alternativeReconhecimento de Imagem para Identificação Online de Estudantespor
dc.typemasterThesis-
degois.publication.locationISR - UC-
degois.publication.titleDeep Face Recognition for Online Student Identificationeng
dc.peerreviewedyes-
dc.identifier.tid203399609-
thesis.degree.disciplineEngenharia Física-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado em Engenharia Física-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Física-
uc.degree.grantorID0500-
uc.contributor.authorCarreira, David Alexandre Mendes::0009-0003-0196-6093-
uc.degree.classification17-
uc.degree.presidentejuriGonçalves, Nuno Miguel Mendonça da Silva-
uc.degree.elementojuriPortugal, David Bina Siassipour-
uc.degree.elementojuriArrais, Joel Perdiz-
uc.contributor.advisorPortugal, David Bina Siassipour::0000-0002-1447-0439-
uc.contributor.advisorFaria, José Nuno da Cruz-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.languageiso639-1en-
item.openairetypemasterThesis-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.fulltextCom Texto completo-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
Show simple item record

Page view(s)

49
checked on May 8, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons