Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/90159
DC FieldValueLanguage
dc.contributor.advisorFernandes, Gabriel Falcão Paiva-
dc.contributor.authorDias, Simão Pedro das Neves Gonçalves-
dc.date.accessioned2020-06-30T22:05:43Z-
dc.date.available2020-06-30T22:05:43Z-
dc.date.issued2020-02-20-
dc.date.submitted2020-06-30-
dc.identifier.urihttps://hdl.handle.net/10316/90159-
dc.descriptionDissertação de Mestrado Integrado em Engenharia Electrotécnica e de Computadores apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractRecentemente, Machine Learning (ML) passou por um período de renascimento devido à melhoria dos sistemas de computação e memórias dos computadores. A internet também teve um papel fundamental, permitindo o acesso e agregando enormes quantidades de dados. À medida que a tecnologia evolui, as optimizações feitas aos seus processos têm vindo a obter destaque.Tradicionalmente, os modelos de machine learning são bastante pesados em termos de memória e computações durante as fases de inferência e treino.Uma técnica de otimização utilizada em ML é focada na fase de inferência. Os modelos são tipicamente treinados em 32-bits, mas em vez de se realizar a inferência em 32-bits (operações e gravação), esta pode ser quantizada para um formato que utiliza menos bits - um processo designado por Quantização Pós-treino.Tipicamente, quanto menos bits forem guardados e movimentados num sistema, menor será a energia consumida e mais rápidas serão as computações implementadas, resultando num sistema mais eficiente, dado o mesmo tipo de tarefas.O objetivo deste estudo é comparar duas técnicas de quantização pós-treino de 8 bits utilizando dois modelos básicos diferentes, explorando os seus potenciais e as suas ressalvas. Ambos os modelos foram treinados para classificar algarismos escritos manualmente, em que o primeiro modelo é focado em camadas Fully Connected e o segundo é focado em camadas Convolutional.Uma das técnicas estudadas utiliza um sistema de representação numérica novo e este trabalho também explora um modelo para compreender como este sistema acumula erro. Em suma, é uma tentativa para perceber qual dos métodos fornece uma solução mais eficaz e prática.por
dc.description.abstractIn recent years, Machine Learning (ML) went through a renascence due to improvements in computing systems and computer memories. The internet also played an important role, by providing access to and aggregating large amounts of data. As this technology evolves, optimizations to its processes are receiving more attention.Traditionally, machine learning models are intense in both memory and computations during training and inference.An optimization technique used in ML is focused on the inference phase. Models are typically trained in 32-bits, but instead of performing inference in 32-bits (operations and storage), it can be quantized to a format that uses fewer bits - this is called Post-training quantization.Usually, the fewer bits being stored and moved around in a computing system, the less energy is consumed, thus faster computations are performed, resulting in a more efficient system, given equivalent tasks.The goal of this study is to compare two 8-bit Post-training Quantization techniques by using two different basic models and exploit both their potentials and caveats. Both models are trained to classify handwritten numbers, the first one is focused on Fully Connected layers while the second focuses on Convolutional Layers.One of the techniques examined adopts a novel numeric representation system and this work also explores a model to understand how the system accumulates error. In short, it is an attempt at understanding which method provides a more efficient and practical solution.eng
dc.description.sponsorshipOutro - Este trabalho teve o apoio do Instituto de Telecomunicações, INESC-ID e Fundação para a Ciência e a Tecnologia, no âmbito dos Projectos UIDB/EEA/50008/2020, PTDC/EEI-HAC/30485/2017 e H2020-DS-06-2017-779391.-
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectMachine Learningpor
dc.subjectQuantização Pós-Treinopor
dc.subjectDeepFloatpor
dc.subjectArray Sistólicopor
dc.subjectRedes Neuronaispor
dc.subjectMachine Learningeng
dc.subjectPos-Training Quantizationeng
dc.subjectDeepFloateng
dc.subjectSystolic Arrayeng
dc.subjectNeural Networkseng
dc.titleNeural Networks, DeepFloat & TensorFlow Lite; Post-Training Quantization Case Studyeng
dc.title.alternativeRedes Neuronais, DeepFloat & TensorFlow Lite; Caso de Estudo de Quantização Pós-Treinopor
dc.typemasterThesis-
degois.publication.locationDEEC-
degois.publication.titleNeural Networks, DeepFloat & TensorFlow Lite; Post-Training Quantization Case Studyeng
dc.peerreviewedyes-
dc.identifier.tid202491056-
thesis.degree.disciplineEngenharia Electrotécnica e de Computadores-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado Integrado em Engenharia Electrotécnica e de Computadores-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Eng. Electrotécnica e de Computadores-
uc.degree.grantorID0500-
uc.contributor.authorDias, Simão Pedro das Neves Gonçalves::0000-0002-4381-3816-
uc.degree.classification17-
uc.degree.presidentejuriLobo, Jorge Nuno de Almeida e Sousa Almada-
uc.degree.elementojuriFernandes, Gabriel Falcão Paiva-
uc.degree.elementojuriMartins, Pedro Alexandre Dias-
uc.contributor.advisorFernandes, Gabriel Falcão Paiva::0000-0001-9805-6747-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairetypemasterThesis-
item.cerifentitytypePublications-
item.grantfulltextopen-
item.fulltextCom Texto completo-
item.languageiso639-1en-
crisitem.advisor.researchunitIT - Institute of Telecommunications-
crisitem.advisor.orcid0000-0001-9805-6747-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
Simão Dias Dissertação Revista Orientador.pdf6.25 MBAdobe PDFView/Open
Show simple item record

Page view(s)

228
checked on Apr 16, 2024

Download(s)

305
checked on Apr 16, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons