Precisión (informática)

La precisión en informática es una  medida de detalle, generalmente medida en bits , pero a veces en dígitos decimales . Esto está relacionado con los dígitos significativos en matemáticas , que es el número de dígitos que se utilizan para el valor de una expresión numérica.

Algunos de los formatos de precisión estándar son:

De estos, el formato de precisión octal todavía se usa raramente. Los formatos de precisión simple y doble son los más utilizados y soportados en casi todas las plataformas. El uso del formato de media precisión está en aumento, especialmente en el campo del aprendizaje automático , ya que muchos algoritmos de aprendizaje automático son tolerantes a errores. [una]

Véase también

Notas

  1. Mittal, Sparsh. Una encuesta de técnicas para computación aproximada  //  ACM Comput. sobrev. : diario. - ACM, 2016. - Mayo ( vol. 48 , no. 4 ). — Pág. 62:1-62:33 . -doi : 10.1145/ 2893356 .

Enlaces