Use este identificador para citar ou linkar para este item: https://repositorio.ufrn.br/handle/123456789/32057
Título: Fully parallel implementation of an SVM with SGD-based training on FPGA
Autor(es): Lopes, Felipe Fernandes
Orientador: Fernandes, Marcelo Augusto Costa
Palavras-chave: FPGA;SGD;SVM;Aprendizagem de máquina
Data do documento: 29-Jan-2021
Editor: Universidade Federal do Rio Grande do Norte
Referência: LOPES, Felipe Fernandes. Fully parallel implementation of an SVM with SGD-based training on FPGA. 2021. 93f. Dissertação (Mestrado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021.
Resumo: Inteligência artificial, aprendizagem de máquina e aprendizagem profunda têm se mostrado técnicas poderosas para resolver problemas em áreas como processamento de linguagem natural, visão computacional e outras. No entanto, seu desempenho computacional e estatístico depende além de outros fatores dos algoritmos usados para o treinamento, da plataforma de computação usada e até mesmo da precisão numérica usada para representar os dados. Um dos principais algoritmos de aprendizagem de máquina é o Support Vector Machine (SVM) sendo mais comumente treinada por meio da otimização sequencial mínima, o que contribui para um baixo desempenho computacional. Como uma alternativa, algoritmos baseados em Stochastic Gradient Descent (SGD) apresentam melhor escalabilidade e podem ser utilizados como boas opções para o treinamento de algoritmos de aprendizado de máquina. Porém, mesmo com o uso de algoritmos baseados no gradiente estocástico, os tempos de treinamento e inferência podem se tornar grandes dependendo da plataforma de computação empregada. Por esse motivo, aceleradores baseados em Field Programmable Gate Arrays (FPGAs) podem ser utilizados para melhorar o desempenho em termos de velocidade de processamento. Este trabalho propõe uma implementação em FPGA de uma SVM, totalmente paralela com treinamento baseado no SGD. Resultados associados a ocupação em hardware, velocidade de processamento (throughput), e acurácia para o treinamento e inferência em vários formatos de quantização são apresentados.
Abstract: Artificial intelligence, machine learning, and deep learning have proven to be powerful techniques for solving natural language processing problems, computer vision, and others. However, its computational and statistical performance depends on other factors of the algorithms used for training, the computing platform used, and even the numerical precision used to represent the data. One of the main machine learning algorithms is the Support Vector Machine (SVM), most commonly trained through minimal sequential optimization, contributing to low computational performance. As an alternative, algorithms based on Stochastic Gradient Descent (SGD) have better scalability and can be used as good options for training machine learning algorithms. However, even with algorithms based on the stochastic gradient, the training and inference times can become long depending on the computing platform employed. Thus, accelerators based on Field Programmable Gate Arrays (FPGAs) can be used to improve performance in terms of processing speed. This work proposes a fully parallel FPGA implementation of an SVM with SGD-based training. Results associated with hardware occupation, processing speed (or throughput), and accuracy for training and inference in various quantization formats are presented.
URI: https://repositorio.ufrn.br/handle/123456789/32057
Aparece nas coleções:PPGEE - Mestrado em Engenharia Elétrica e de Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Fullyparallelimplementation_Lopes_2021.pdf1,56 MBAdobe PDFThumbnail
Visualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.