Procesador neural
Un procesador neuronal ( ing. Unidad de procesamiento neuronal, NPU o acelerador de IA ing. Acelerador de IA ) es una clase especializada de microprocesadores y coprocesadores (a menudo un circuito integrado especializado ), que se utiliza para la aceleración de hardware de algoritmos de redes neuronales artificiales , visión artificial , voz reconocimiento , aprendizaje automático y otros métodos de inteligencia artificial [1] .
Descripción
Los procesadores neuronales están relacionados con la informática y se utilizan para la aceleración de hardware de la emulación de redes neuronales y el procesamiento de señales digitales en tiempo real . Por regla general, el neuroprocesador contiene registros , bloques de memoria push-pull , un interruptor y un dispositivo informático que contiene una matriz de multiplicación , decodificadores , flip- flops y multiplexores [2] .
En la etapa actual (a partir de 2017), la clase de procesadores neuronales puede incluir tipos de chips de diferente diseño y especialización , por ejemplo:
- Los procesadores neuromórficos se basan en una arquitectura asíncrona de clúster desarrollada en la Universidad de Cornell (fundamentalmente diferente de las arquitecturas informáticas de von Neumann y Harvard utilizadas en la industria de TI durante los últimos 70 años). A diferencia de las arquitecturas informáticas tradicionales, la lógica de los procesadores neuromórficos es inicialmente altamente especializada para la creación y desarrollo de varios tipos de redes neuronales artificiales . El dispositivo utiliza transistores ordinarios , a partir de los cuales se construyen los núcleos informáticos (cada núcleo, por regla general, contiene un programador de tareas, su propia memoria SRAM y un enrutador para comunicarse con otros núcleos), cada uno de los núcleos emula el trabajo de varios cientos neuronas y, por lo tanto, uno integrado en un circuito que contiene varios miles de tales núcleos puede recrear algorítmicamente una matriz de varios cientos de miles de neuronas y un orden de magnitud más sinapsis . Por regla general, estos procesadores se utilizan para algoritmos de aprendizaje automático profundo [3] .
- Procesadores de tensores : los dispositivos, por regla general, son coprocesadores controlados por el procesador central , que operan con tensores : objetos que describen la transformación de elementos de un espacio lineal en otro y pueden representarse como matrices multidimensionales de números [4] , que se procesan utilizando tales bibliotecas de software , como por ejemplo TensorFlow . Por lo general, están equipados con su propia RAM incorporada y funcionan con números de bits bajos (8 bits), y están altamente especializados para realizar operaciones como la multiplicación de matrices y la convolución , que se utilizan para emular redes neuronales convolucionales , que se utilizan para la máquina. problemas de aprendizaje [5] .
- Procesadores de visión artificial : similares en muchos aspectos a los procesadores de tensor, pero están altamente especializados para acelerar los algoritmos de visión artificial que utilizan redes neuronales convolucionales (CNN) y técnicas de transformación de características de escala invariable (SIFT). Pusieron mucho énfasis en paralelizar el flujo de datos a través de múltiples núcleos de ejecución , incluido el uso del modelo de bloc de notas. - como en los procesadores de señal digital de múltiples núcleos , y ellos, como los procesadores de tensor, se utilizan para cálculos con baja precisión, adoptados en el procesamiento de imágenes [6] .
Historia
Aplicaciones
Ejemplos
Productos existentes
- Procesadores de visión artificial :
- Procesadores de tensor :
- Google TPU ( eng. Tensor Processing Unit ): presentado como un acelerador para el sistema Google TensorFlow , que se usa ampliamente para redes neuronales convolucionales. Centrado en una gran cantidad de aritmética de precisión de 8 bits [5] .
- Huawei Ascend 310 / Ascend 910 son los dos primeros chips optimizados para IA de la línea Ascend de Huawei [13] .
- PNN Intel Nervana( eng. Neural Network Processor ) es el primer procesador de tensor disponible comercialmente diseñado para construir redes de aprendizaje profundo [14] , Facebook fue un socio en su proceso de diseño [15] [16] .
- Qualcomm Cloud AI 100 es un acelerador de inteligencia artificial diseñado para su uso como parte de plataformas en la nube que admite las bibliotecas de software PyTorch , Glow , TensorFlow , Keras y ONNX [17] .
- Procesadores neuromórficos :
- IBM TrueNorth es un procesador neuromórfico basado en el principio de interacción entre neuronas , en lugar de la aritmética tradicional. La frecuencia del pulso representa la intensidad de la señal. A partir de 2016, no hay consenso entre los investigadores de IA sobre si este es el camino correcto a seguir [18] , pero algunos resultados son prometedores, con grandes ahorros de energía demostrados para tareas de visión artificial [19] .
- Epifanía de Adapteva - diseñado como coprocesador, incluye un modelo de memoria de bloc de notas redes en un chip, se acerca al modelo de programación de flujo de información, que debería ser adecuado para muchos problemas de aprendizaje automático.
- Placa ComBox x64 Movidius PCIe Blade : placa de expansión PCI Express con máxima densidad de VPU Intel Movidius (MyriadX) para la inferencia de redes neuronales ultraprecisas en el centro de datos
- cambricónLa MLU100 es una tarjeta de expansión PCI Express con procesador AI de media precisión de 64 TFLOPS o 128 TOPS para cálculos INT8 [20] .
- Cerebras Wafer Scale Engine (WSE, CS-1): el superprocesador experimental de Cerebras contiene 1,2 billones de transistores organizados en 400 000 núcleos informáticos optimizados para IA y 18 GB de SRAM distribuida localmente , todos conectados por una red de malla con un rendimiento general de 100 petabits por segundo . El chip Cerebras es en realidad una supercomputadora en un chip, donde los núcleos de cómputo SLAC (Sparse Linear Algebra Cores) son totalmente programables y pueden optimizarse para trabajar con cualquier red neuronal [21] .
- KnuPath - Procesador KnuEdge, diseñado para trabajar en sistemas de reconocimiento de voz y otras áreas de aprendizaje automático, utiliza la tecnología de conector LambdaFabric y permite combinar hasta 512 mil procesadores en un solo sistema [22] .
Productos GPU
- Nvidia Tesla es una serie de productos GPGPU dedicados de Nvidia [23] :
- nvidiavolta _ - Los procesadores gráficos (GPU) de la arquitectura Volta (2017) de Nvidia (como el Volta GV100), contienen hasta 640 núcleos especiales para computación tensorial [1] .
- nvidia turing - Las GPU de arquitectura Turing (2018) de Nvidia (como Nvidia TU104), contienen hasta 576 núcleos especiales para computación tensorial [24] .
- Nvidia DGX-1 - un servidor especializado que consta de 2 procesadores centrales y 8 GPU Nvidia Volta GV100(5120 núcleos tensoriales) conectados a través del bus rápido NVLink [25] . Arquitectura de memoria dedicadaeste sistema es particularmente adecuado para construir redes de aprendizaje profundo [26] [27] .
- Instinto AMD Radeon es una placa AMD GPGPU especializada que se ofrece como acelerador para tareas de aprendizaje profundo [28] [29] .
Aceleradores de IA en forma de coprocesadores internos (unidades de hardware de IA)
Productos de investigación y desarrollo
- Instituto Indio de Tecnología de Madrásdesarrolla un acelerador basado en neuronas de impulso para nuevos sistemas de arquitectura RISC-V destinados al procesamiento de big data en sistemas servidores [34] .
- ojos - desarrollo centrado en redes neuronales convolucionales utilizando memoria de notebook y arquitectura de red dentro del cristal.
- DLU de Fujitsu es un coprocesador multibloque y multinúcleo de Fujitsu que utiliza cálculos de baja precisión y está diseñado para el aprendizaje automático profundo [35] .
- Intel Loihies el procesador neuromórfico de Intel que combina aprendizaje, entrenamiento y toma de decisiones en un solo chip, lo que permite que el sistema sea autónomo e "inteligente" sin estar conectado a la nube . Por ejemplo, cuando se entrena con la base de datos del MNIST (Instituto Nacional Mixto de Estándares y Tecnología), el procesador Loihi es 1 millón de veces mejor que otras redes neuronales con picos típicas [36] .
- Kalray — mostró MPPA[37] e informaron un aumento en la eficiencia de las redes neuronales convolucionales en comparación con las GPU .
- SpiNNaker es una arquitectura informática masivamente paralela que combina los núcleos de una arquitectura ARM tradicional con un marco de trabajo de red avanzado especializado en la simulación de grandes redes neuronales.
- Cero NPU es un desarrollo de Qualcomm destinado directamente a llevar las capacidades de reconocimiento de voz e imagen a los dispositivos móviles [38] .
- IVA TPU es un procesador de tensor desarrollado por la empresa rusa IVA Technologies [39] [40] . En octubre de 2020, los resultados [41] [42] de las pruebas de la arquitectura del acelerador de redes neuronales IVA TPU, realizadas por el consorcio internacional MLPerf (establecido en 2018 por Baidu , Google , la Universidad de Harvard, la Universidad de Stanford , la Universidad de California, Berkeley ) fueron publicados.
Notas
- ↑ 1 2 La popularidad del aprendizaje automático influye en la evolución de la arquitectura del procesador . noticias del servidor. (31 de agosto de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ Neuroprocesador, dispositivo para calcular funciones de saturación, dispositivo de cómputo y sumador . FindPatent.RU. Consultado el 17 de noviembre de 2017. Archivado desde el original el 1 de diciembre de 2017. (Ruso)
- ↑ IBM suministró a LLNL neuroprocesadores TrueNorth por $1 millón . Computerra . (31 de marzo de 2016). Consultado el 17 de noviembre de 2017. Archivado desde el original el 19 de noviembre de 2017. (Ruso)
- ↑ Intel desarrolla procesadores tensoriales para IA . PC Semana /RE. (22 de noviembre de 2016). Consultado el 17 de noviembre de 2017. Archivado desde el original el 1 de diciembre de 2017. (Ruso)
- ↑ 1 2 Detalles sobre el coprocesador de tensor TPU de Google . noticias del servidor. (25 de agosto de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (Ruso)
- ↑ 1 2 Intel anuncia el procesador Movidius Myriad X Vision . 3DNoticias . (29 de agosto de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (Ruso)
- ↑ Nvidia Drive PX: Supercomputadora de IA escalable para conducción autónoma . nvidia _ Consultado el 17 de noviembre de 2017. Archivado desde el original el 16 de julio de 2016. (indefinido) (Inglés)
- ↑ NVIDIA presenta Drive PX Pegasus, plataforma de piloto automático de última generación . 3DNoticias (10 de octubre de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido) (Ruso)
- ↑ Movidius impulsa el dron más inteligente del mundo . Fecha de acceso: 15 de noviembre de 2017. Archivado desde el original el 9 de agosto de 2016. (indefinido) (Inglés)
- ↑ Qualcomm Research lleva el aprendizaje automático de clase de servidor a los dispositivos cotidianos . Consultado el 15 de noviembre de 2017. Archivado desde el original el 8 de agosto de 2016. (indefinido) (Inglés)
- ↑ Diseño de un sistema de visión artificial para el control de malezas (enlace inaccesible) . Consultado el 15 de noviembre de 2017. Archivado desde el original el 23 de junio de 2010. (indefinido) (Inglés)
- ↑ La evolución de EyeQ . Consultado el 18 de noviembre de 2017. Archivado desde el original el 7 de diciembre de 2017. (indefinido)
- ↑ Huawei creó los primeros procesadores de IA del mundo, siguiendo el camino de los desarrolladores de Elbrus , CNews (23 de octubre de 2018). Archivado desde el original el 23 de octubre de 2018. Consultado el 24 de octubre de 2018.
- ↑ Antes de fin de año, Intel lanzará "el primer chip de la industria para el procesamiento de redes neuronales": Intel Nervana Neural Network Processor . iXBT.com (18 de octubre de 2017). Consultado el 21 de noviembre de 2017. Archivado desde el original el 15 de noviembre de 2017. (Ruso)
- ↑ Intel presenta un procesador de red neuronal especialmente diseñado para el aprendizaje profundo , Tech Report (17 de octubre de 2017). Archivado desde el original el 24 de noviembre de 2017. Consultado el 17 de noviembre de 2017.
- ↑ Intel Nervana Neural Network Processors (NNP) Redefine AI Silicon (17 de octubre de 2017). Archivado desde el original el 20 de octubre de 2017. Consultado el 17 de noviembre de 2017.
- ↑ Qualcomm presentó el acelerador de inteligencia artificial Cloud AI 100 , Servernews.ru (10 de abril de 2019). Archivado desde el original el 10 de abril de 2019. Consultado el 16 de abril de 2019.
- ↑ Jan LeKun en IBM TrueNorth . Consultado el 15 de noviembre de 2017. Archivado desde el original el 5 de julio de 2015. (indefinido) (Inglés)
- ↑ IBM abre una nueva era de computación neuromórfica . - "TrueNorth es increíblemente eficiente: el chip consume solo 72 milivatios a carga máxima, lo que equivale a alrededor de 400 000 millones de operaciones sinápticas por segundo por vatio, o unas 176 000 veces más eficiente que una CPU moderna que ejecuta la misma carga de trabajo similar a la del cerebro, o 769 veces más eficiente que otros enfoques neuromórficos de última generación". Consultado el 15 de noviembre de 2017. Archivado desde el original el 9 de julio de 2016. (indefinido) (Inglés)
- ↑ La empresa china Cambricon desarrolla chips de IA para centros de datos. (enlace no disponible) . Consultado el 15 de junio de 2018. Archivado desde el original el 16 de junio de 2018. (indefinido)
- ↑ Cerebras es un procesador de IA de increíble tamaño y potencia . 3DNoticias . (20 de agosto de 2019). Consultado el 21 de agosto de 2019. Archivado desde el original el 20 de agosto de 2019. (indefinido)
- ↑ KnuPath es un procesador neuromórfico de grado militar . 3DNoticias . (9 de junio de 2016). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ Computex: el jefe de Nvidia no ve ninguna amenaza en el procesador tensor de Google . " Sistemas Abiertos ". (1 de junio de 2016). Consultado el 17 de noviembre de 2017. Archivado desde el original el 1 de diciembre de 2017. (indefinido)
- ↑ ¿Qué aportará al mercado la nueva arquitectura NVIDIA Turing? . 3DNoticias. (14.08.2018). Consultado el 17 de agosto de 2018. Archivado desde el original el 23 de marzo de 2019. (indefinido)
- ↑ La era NVIDIA Volta comenzó con el acelerador Tesla V100 . noticias del servidor. (11 de mayo de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 1 de diciembre de 2017. (indefinido)
- ↑ GTC Europe 2017: la biblioteca NVIDIA TensorRT 3 acelera las redes neuronales 18 veces en comparación con una solución universal . noticias del servidor. (12 de octubre de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ Nueva supercomputadora rusa diseñada para entrenar redes neuronales . noticias del servidor. (1 de septiembre de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ AMD anuncia Radeon Instinct: GPU Accelerators for Deep Learning, disponible en 2017 , Anandtech (12 de diciembre de 2016). Archivado desde el original el 12 de diciembre de 2016. Consultado el 12 de diciembre de 2016.
- ↑ Las GPU Radeon Instinct Machine Learning incluyen Vega, Preview Performance , PC Per (12 de diciembre de 2016). Archivado desde el original el 11 de agosto de 2017. Consultado el 12 de diciembre de 2016.
- ↑ Huawei revela el futuro de la IA móvil en IFA 2017. . Consultado el 15 de junio de 2018. Archivado desde el original el 16 de junio de 2018. (indefinido)
- ↑ CEVA NeuPro. Una familia de procesadores de IA para el aprendizaje profundo en el perímetro. . Consultado el 15 de junio de 2018. Archivado desde el original el 16 de junio de 2018. (indefinido)
- ↑ El nuevo motor neuronal del iPhone X ejemplifica el enfoque de Apple hacia la IA , The Verge (13 de septiembre de 2017). Archivado desde el original el 15 de septiembre de 2017. Consultado el 17 de noviembre de 2017.
- ↑ Imagination presenta nuevos aceleradores de IA PowerVR 2NX , 3DNews (8 de junio de 2018). Archivado desde el original el 16 de junio de 2018. Consultado el 15 de junio de 2018.
- ↑ India prepara procesadores RISC-V: Shakti apunta a servidores, IoT, análisis (enlace descendente) . - "El proyecto Shakti ahora incluye planes para al menos seis diseños de microprocesadores, así como tejidos asociados y un chip acelerador". Consultado el 15 de noviembre de 2017. Archivado desde el original el 3 de julio de 2017. (indefinido) (Inglés)
- ↑ Fujitsu desarrolla un procesador personalizado para sistemas de IA . noticias del servidor. (24 de julio de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ Intel presenta el procesador neuromórfico Loihi . 3DNoticias . (26 de septiembre de 2017). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ MPPA de Kalray . Consultado el 15 de noviembre de 2017. Archivado desde el original el 23 de abril de 2016. (indefinido) (Inglés)
- ↑ Qualcomm mostró el neuroprocesador Zeroth . Logmag.net (16 de octubre de 2013). Consultado el 17 de noviembre de 2017. Archivado desde el original el 17 de noviembre de 2017. (indefinido)
- ↑ mundo incrustado. IVA TPU: acelerador de inferencia DNN // Arquitectura NeuroMatrix para aplicaciones de redes neuronales | mundo incrustado . www.embedded-world.de _ Consultado el 30 de noviembre de 2020. Archivado desde el original el 21 de enero de 2021.
- ↑ Se ha creado una arquitectura de procesador original en Rusia que puede desplazar a NVidia . cnews.ru . Consultado el 30 de noviembre de 2020. Archivado desde el original el 25 de noviembre de 2020. (indefinido)
- ↑ Resultados de la inferencia . MLPerf . Consultado el 30 de noviembre de 2020. Archivado desde el original el 28 de noviembre de 2020.
- ↑ Sally Ward-Foxton. El punto de referencia de aprendizaje automático amplía la compatibilidad con las cargas de trabajo del centro de datos y perimetrales ? . Embedded.com (3 de noviembre de 2020). Consultado el 30 de noviembre de 2020. Archivado desde el original el 25 de noviembre de 2020. (indefinido)
Enlaces