Introducción a la precisión del multímetro digital
La precisión se refiere al error máximo permitido en un entorno de uso específico. En otras palabras, la precisión se utiliza para indicar
La cercanía entre el valor medido del multímetro digital y el valor real de la señal medida.
Para los multímetros digitales, la precisión generalmente se expresa como un porcentaje de la lectura. Por ejemplo, el significado de una precisión de lectura del 1 por ciento es: cuando la pantalla del multímetro digital es 100.0V, el voltaje real puede estar entre 99,0 V y 101,0 V .
Puede haber valores específicos agregados a la precisión básica en la especificación. Su significado es el número de palabras que se agregarán para transformar el extremo derecho de la pantalla. En el ejemplo anterior, la precisión podría expresarse como ±(1 por ciento más 2). Por lo tanto, si el GMM lee 100,0 V, el voltaje real estará entre 98,8 V y 101,2 V.
La precisión de un medidor analógico se calcula en función del error de escala completa, no de la lectura mostrada. La precisión típica de los medidores analógicos es de ±2 por ciento o ±3 por ciento de la escala completa. La precisión básica típica de un DMM está entre ±(0.7 por ciento más 1) y ±(0.1 por ciento más 1) de lectura, o incluso mayor.