La precisión en informática es una medida de detalle, generalmente medida en bits , pero a veces en dígitos decimales . Esto está relacionado con los dígitos significativos en matemáticas , que es el número de dígitos que se utilizan para el valor de una expresión numérica.
Algunos de los formatos de precisión estándar son:
De estos, el formato de precisión octal todavía se usa raramente. Los formatos de precisión simple y doble son los más utilizados y soportados en casi todas las plataformas. El uso del formato de media precisión está en aumento, especialmente en el campo del aprendizaje automático , ya que muchos algoritmos de aprendizaje automático son tolerantes a errores. [una]
![]() |
---|