Cenna: acelerador de red neural rentable
Autores: Park, Sang-Soo; Chung, Ki-Seok
Idioma: Inglés
Editor: MDPI
Año: 2020
Disponible con Suscripción Virtualpro
Artículos
Categoría
Ingeniería y Tecnología
Licencia
Atribución – Compartir igual
Consultas: 4
Citaciones: Sin citaciones
Las redes neuronales convolucionales (CNN) son ampliamente adoptadas en diversas aplicaciones. Los modelos CNN de última generación ofrecen un excelente rendimiento en clasificación, pero requieren una gran cantidad de cálculos e intercambio de datos debido a que típicamente emplean muchas capas de procesamiento. Entre estas capas de procesamiento, las capas de convolución, que realizan muchas multiplicaciones y sumas, representan una parte importante de los cálculos y el acceso a la memoria. Por lo tanto, reducir la cantidad de cálculos y el acceso a la memoria es clave para las CNN de alto rendimiento. En este estudio, proponemos un acelerador de redes neuronales rentable, llamado CENNA, cuyo costo de hardware se reduce al emplear una multiplicación de matrices centrada en el costo que utiliza tanto la multiplicación de Strassen como una multiplicación ingenua. Además, el método de convolución utilizando la multiplicación de matrices propuesta puede minimizar el movimiento de datos al reutilizar tanto el mapa de características como el núcleo de convolución sin necesidad de lógica de control adicional. En cuanto a la velocidad de procesamiento, el consumo de energía y el área de silicio, la eficiencia de CENNA es hasta 88 veces mayor que la de los diseños convencionales para la inferencia de CNN.
Descripción
Las redes neuronales convolucionales (CNN) son ampliamente adoptadas en diversas aplicaciones. Los modelos CNN de última generación ofrecen un excelente rendimiento en clasificación, pero requieren una gran cantidad de cálculos e intercambio de datos debido a que típicamente emplean muchas capas de procesamiento. Entre estas capas de procesamiento, las capas de convolución, que realizan muchas multiplicaciones y sumas, representan una parte importante de los cálculos y el acceso a la memoria. Por lo tanto, reducir la cantidad de cálculos y el acceso a la memoria es clave para las CNN de alto rendimiento. En este estudio, proponemos un acelerador de redes neuronales rentable, llamado CENNA, cuyo costo de hardware se reduce al emplear una multiplicación de matrices centrada en el costo que utiliza tanto la multiplicación de Strassen como una multiplicación ingenua. Además, el método de convolución utilizando la multiplicación de matrices propuesta puede minimizar el movimiento de datos al reutilizar tanto el mapa de características como el núcleo de convolución sin necesidad de lógica de control adicional. En cuanto a la velocidad de procesamiento, el consumo de energía y el área de silicio, la eficiencia de CENNA es hasta 88 veces mayor que la de los diseños convencionales para la inferencia de CNN.