SciELO - Scientific Electronic Library Online

 
vol.30 issue1A Data Fusion System for Simulating Critical Scenarios and Decision-MakingIdentifying Actors in a Disaster Using Twitter: Sinabung 2018 Case Study author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Ciencia e Ingeniería Neogranadina

Print version ISSN 0124-8170On-line version ISSN 1909-7735

Abstract

GONZALEZ, Edwin; VILLAMIZAR LUNA, Walter D.  and  FAJARDO ARIZA, Carlos Augusto. Acelerador en hardware para la inferencia de una red neuronal convolucional. Cienc. Ing. Neogranad. [online]. 2020, vol.30, n.1, pp.107-116.  Epub Aug 16, 2020. ISSN 0124-8170.  https://doi.org/10.18359/rcin.4194.

Las redes neuronales convolucionales cada vez son más populares en aplicaciones de aprendizaje profundo, como por ejemplo en clasificación de imágenes, reconocimiento de voz, medicina, entre otras. Sin embargo, estas redes son computacionalmente costosas y requieren altos recursos de memoria. En este trabajo se propone un acelerador en hardware para el proceso de inferencia de la red Lenet-5, un esquema de coprocesamiento hardware/software. El objetivo de la implementación es reducir el uso de recursos de hardware y obtener el mejor rendimiento computacional posible durante el proceso de inferencia. El diseño fue implementado en la tarjeta de desarrollo Digilent Arty Z7-20, la cual está basada en el System on Chip (SoC) Zynq-7000 de Xilinx. Nuestra implementación logró una precisión del 97,59 % para la base de datos MNIST utilizando tan solo 12 bits en el formato de punto fijo. Los resultados muestran que el esquema de co-procesamiento, el cual opera a una velocidad de 100 MHz, puede identificar aproximadamente 441 imágenes por segundo, que equivale aproximadamente a un 17% más rápido que una implementación de software a 650 MHz. Es difícil comparar nuestra implementación con otras implementaciones similares, porque las implementaciones encontradas en la literatura no son exactamente como la que realizó en este trabajo. Sin embargo, algunas comparaciones, en relación con el uso de recursos lógicos y la precisión, sugieren que nuestro trabajo supera a trabajos previos.

Keywords : CNN; FPGA; acelerador en hardware; MNIST, Zynq.

        · abstract in English     · text in English     · English ( pdf )