La precisión se refiere al error máximo permitido en un entorno de uso específico. En otras palabras, la precisión se utiliza para indicar
Qué tan cerca está la medición del DMM del valor real de la señal que se está midiendo.
Para los multímetros digitales, la precisión generalmente se expresa como un porcentaje de la lectura. Por ejemplo, el significado de una precisión de lectura del 1 por ciento es: cuando la pantalla del multímetro digital es 100.0V, el voltaje real puede estar entre 99,0 V y 101,0 V .
Se pueden agregar valores específicos a la precisión básica en la descripción detallada. Su significado es el número de palabras que se agregarán para transformar el extremo derecho de la pantalla. En el ejemplo anterior, la precisión podría marcarse como ±(1 por ciento más 2). Por lo tanto, si el GMM lee 100,0 V, el voltaje real estará entre 98,8 V y 101,2 V.
La precisión de un medidor analógico se calcula en términos de error de escala completa, no de la lectura mostrada. La precisión típica de un medidor analógico es de ±2 por ciento o ±3 por ciento de la escala completa. La precisión básica típica de un DMM está entre ±(0.7 por ciento más 1) y ±(0.1 por ciento más 1) de lectura, o incluso mayor.
