Procesador de tensor de Google

Procesador de tensor de Google

Unidad de procesamiento de tensores 3.0

La Unidad de procesamiento de tensor de Google ( Google TPU ) es un  procesador de tensor que pertenece a la clase de procesadores neuronales , que es un circuito integrado específico de la aplicación desarrollado por Google y diseñado para usarse con la biblioteca de aprendizaje automático TensorFlow . Presentado en 2016 en la conferencia Google I/O , se afirmó que los dispositivos ya habían sido utilizados internamente por Google durante más de un año [1] [2] .

En comparación con las GPU , está diseñado para una mayor cantidad de cómputo con precisión reducida (por ejemplo, precisión de solo 8 bits [3] ) con mayor rendimiento por vatio y la ausencia de un módulo para rasterización y unidades de textura [1] [2 ] .

Se afirma que los procesadores de tensor se usaron en una serie de juegos en el programa AlphaGo contra Lee Sedol [2] y en las siguientes peleas similares [4] . La corporación también utilizó procesadores de tensor para procesar las fotos de Google Street View para la extracción de texto. Se informó que todo el volumen se procesó en menos de cinco días. En Google Photos, un solo procesador de tensor puede procesar más de 100 millones de fotos al día. Asimismo, el dispositivo se utiliza para el sistema de autoaprendizaje RankBrain , que procesa las respuestas del motor de búsqueda de Google .

El dispositivo se implementa como una matriz multiplicadora para números de 8 bits, controlada por instrucciones CPU CISC a través del bus PCIe 3.0 . Está fabricado con tecnología de 28 nm, la frecuencia de reloj es de 700 MHz y tiene una potencia de diseño térmico de 28-40 W. Equipado con 28 MB de RAM incorporada y 4 MB de acumuladores de 32 bits que acumulan resultados en conjuntos de multiplicadores de 8 bits organizados en una matriz de 256×256. Las instrucciones del dispositivo transmiten o reciben datos de un nodo, realizan multiplicaciones de matrices o convoluciones [5] . Se pueden realizar 65536 multiplicaciones en cada matriz por ciclo; por segundo - hasta 92 billones [6] .

Notas

  1. ↑ 1 2 Unidad de procesamiento de tensores de Google explicada: así es como se ve el futuro de la informática  . Archivado desde el original el 26 de febrero de 2022. Consultado el 24 de mayo de 2017.
  2. 1 2 3 Jouppi, Norm Google potencia las tareas de aprendizaje automático con un chip personalizado de TPU  . Blog de la plataforma en la nube de Google . Google (18 de mayo de 2016). Consultado el 22 de enero de 2017. Archivado desde el original el 18 de mayo de 2016.
  3. Armasu, presentación del gran chip de Lucian Google para el aprendizaje automático: unidad de procesamiento de tensor con una eficiencia 10 veces mayor (actualizado) . Hardware de Tom (19 de mayo de 2016). Fecha de acceso: 26 de junio de 2016.
  4. The Future of Go Summit, Match One: Ke Jie & AlphaGo en YouTube , a partir de las 6:03:10 am (23 de mayo de 2017)
  5. Norman P. Jouppi et al. Análisis de rendimiento en el centro de datos de una  unidad de procesamiento de tensor . Consultado el 24 de mayo de 2017. Archivado desde el original el 3 de julio de 2017. (44º Simposio Internacional sobre Arquitectura de Computadores (ISCA), 2017)
  6. Ian Cutres . Hot Chips: Google TPU Performance Analysis Live Blog (3 p. m. PT, 10 p. m. UTC)  (inglés) , AnandTech (22 de agosto de 2017). Archivado desde el original el 23 de agosto de 2017. Consultado el 23 de agosto de 2017.

Enlaces