¿Cuál es la precisión de un multímetro?
La precisión de un multímetro digital es la combinación de errores sistemáticos y aleatorios en los resultados de las mediciones. Representa el grado de coherencia entre el valor medido y el valor verdadero, y también refleja la magnitud del error de medición. En términos generales, cuanto mayor sea la precisión, menor será el error de medición y viceversa.
Hay tres formas de expresar precisión, de la siguiente manera:
Precisión=± (un porcentaje de RDG más b por ciento de FS) (2.2.1)
Precisión=± (un porcentaje de RDG más n palabras) (2.2.2)
Precisión=± (un porcentaje de RDG más b por ciento de FS más n palabras) (2.2.3)
En la ecuación (2.2.1), RDG representa el valor de lectura (es decir, el valor de visualización), FS representa el valor de escala completa, el elemento anterior entre paréntesis representa el error integral del convertidor A/D y del convertidor funcional (como el divisor de voltaje, divisor, convertidor RMS verdadero), y el último elemento es el error causado por el procesamiento digital. En la ecuación (2.2.2), n es el cambio en el error de cuantificación reflejado en el último dígito. Si el error de n palabras se convierte en un porcentaje de la escala completa, se convierte en la ecuación (2.2.1). La ecuación (2.2.3) es bastante singular y algunos fabricantes utilizan esta expresión. Uno de los dos últimos representa errores introducidos por otros entornos o funciones.
La precisión de un multímetro digital es mucho mejor que la de un multímetro de puntero analógico. Tomando como ejemplo el índice de precisión del rango básico para medir voltaje CC, puede alcanzar ± {{0}}.5 por ciento para 3 bits y medio y 0,03 por ciento para 4 bits y medio. Por ejemplo, multímetros OI857 y OI859CF. La precisión de un multímetro es un indicador muy importante que refleja la calidad y la capacidad de proceso del multímetro. Un multímetro con poca precisión tiene dificultades para expresar el valor real, lo que fácilmente puede llevar a errores de cálculo en la medición.
