Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/115640
DC FieldValueLanguage
dc.contributor.advisorBatista, Jorge Manuel Moreira de Campos Pereira-
dc.contributor.authorPereira, Inês Marques-
dc.date.accessioned2024-07-16T22:04:12Z-
dc.date.available2024-07-16T22:04:12Z-
dc.date.issued2024-02-29-
dc.date.submitted2024-07-16-
dc.identifier.urihttps://hdl.handle.net/10316/115640-
dc.descriptionDissertação de Mestrado em Engenharia Eletrotécnica e de Computadores apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractIn recent years, with the advance of generative models, DeepFake has become a real riskto society and introduced potential threats to individual privacy and political security. In responseto this escalating concern, considerable efforts have been devoted to the developmentof defense mechanisms against DeepFake manipulation.While DeepFake Detection, a passive defense strategy, has been employed as an expostcountermeasure, its efficacy in preventing the spreading of misinformation is limited.To address this problem, researchers have explored proactive defense techniques, such as theintroduction of adversarial noises into source data, aiming to disrupt DeepFake manipulation,making it impossible to generate realistic images. However, existing studies on DeepFakeDisruption often overlook the critical aspects of the transferability of adversarial attacks andtheir resilience against image reconstruction methods.Unfortunately, most current disruption methods fail to be effective in real-world scenarios,where the specific DeepFake model and the targeted attribute for manipulation areunknown. Consequently, this dissertation seeks to critically examine existing disruptionmethods, evaluating their capacity to transfer seamlessly across diverse DeepFake modelsand domains. Additionally, this research aims to assess the robustness of these methodsagainst various image reconstruction techniques, thereby contributing to the development ofmore effective and versatile defenses against the growing threat of DeepFake technology.eng
dc.description.abstractNos últimos anos, com o avanço dos modelos generativos, a técnica DeepFake tornouseum risco para a sociedade e introduziu potenciais ameaças à privacidade individual e àsegurança política. Em resposta a esta preocupação crescente, foram dedicados consideráveisesforços ao desenvolvimento de mecanismos de defesa contra a manipulação de DeepFake.Enquanto a deteção de DeepFake, uma estratégia de defesa passiva, tem sido utilizadacomo uma contramedida ex-post, a sua eficácia em prevenir a propagação de desinformaçãoé limitada. Para lidar com este problema, estudos atuais têm explorado técnicas de defesaproativas, como a adição de perturbações adversariais a imagens, com o objetivo de perturbara manipulação de DeepFake, tornando impossível a geração de imagens realistas. Noentanto, a maioria dos métodos de Disrupção de DeepFake negligencia aspetos críticos parauma defesa resistente, nomeadamente a transferibilidade dos ataques adversariais e a suaresistência contra métodos de reconstrução de imagem.Infelizmente, a maioria dos métodos atuais de disrupção falha em ser eficaz em cenáriosdo mundo real, onde o modelo específico de DeepFake e o atributo alvo para manipulação sãodesconhecidos. Posto isto, esta tese tem como objetivo examinar criticamente os métodos dedisrupção existentes, avaliando a sua capacidade de transferência entre modelos e domíniosdiversos de DeepFake. Para além disso, este estudo visa avaliar a robustez deste tipo demétodos contra várias técnicas de reconstrução de imagem, contribuindo assim para o desenvolvimentode defesas mais eficazes e versáteis contra a ameaça crescente da tecnologiaDeepFake.por
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectDeepFake Disruptioneng
dc.subjectGANseng
dc.subjectAdversarial Attackseng
dc.subjectCross-Modalityeng
dc.subjectDisrupção de DeepFakepor
dc.subjectGANspor
dc.subjectAtaques Adversariaispor
dc.subjectCross-Modalitypor
dc.titleDisrupting DeepFakes - A Cross-Model Evaluationeng
dc.title.alternativeDisrupting DeepFakes - A Cross-Model Evaluationpor
dc.typemasterThesis-
degois.publication.locationDEEC-
degois.publication.titleDisrupting DeepFakes - A Cross-Model Evaluationeng
dc.peerreviewedyes-
dc.identifier.tid203660650-
thesis.degree.disciplineEngenharia Electrotécnica e de Computadores-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado em Engenharia Eletrotécnica e de Computadores-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Eng. Electrotécnica e de Computadores-
uc.degree.grantorID0500-
uc.contributor.authorPereira, Inês Marques::0009-0007-5143-6954-
uc.degree.classification17-
uc.degree.presidentejuriCruz, Luís Alberto da Silva-
uc.degree.elementojuriPremebida, Cristiano-
uc.degree.elementojuriBatista, Jorge Manuel Moreira de Campos Pereira-
uc.contributor.advisorBatista, Jorge Manuel Moreira de Campos Pereira-
item.openairetypemasterThesis-
item.fulltextCom Texto completo-
item.languageiso639-1en-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File SizeFormat
Dissertação Inês Pereira - final.pdf41.48 MBAdobe PDFView/Open
Show simple item record

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons