Hogyan lehet kiszámítani a multiméter pontosságát?
A pontosság a mérésben szereplő hibaértéktől függ. A pontossági specifikáció a következőképpen van kifejezve: "az olvasás %-a + a fesztávolság %-a". Ebben a képletben az "olvasás% -a" arányos az olvasással, és a "tartomány% -a" az eltolási érték. Ezeket a specifikációkat minden mérési tartományra fejlesztették ki.
Ha a pontosság nem felel meg a mérési felbontás követelményeinek, akkor a felbontás nincs hatással a pontosságra. A mérés során azonban továbbra is használhat multimétert a kis változások figyelésére.
Példa: Tegyük fel, hogy egy 10 Vdc jelet szeretne mérni egy 34401A multiméterrel, 1 éves pontossággal és 10 V-os tartománnyal, akkor a pontosság: 0,0035 + 0,0005 = 10 x (0,0035 / 100) + 10 x (0,0005 / 100) = +/- 0,00040
következésképpen:
Mért érték: 10.000000
Pontosság: *+/-0.000040
Felbontás: 0.00001
A tényleges érték 9,9996 és 10,0004 között van.
A mérés utolsó két számjegye hibákat tartalmaz.
*A multiméterek egyes modelljei "ppm"-et használnak az "olvasás% -a" és a "tartomány% -a" helyett. A ppm értéke 1/1 000 000(= 10-6) szorzással érhető el.
1. példa: Ha az 1 (V) hiba 10 ppm, a tényleges hibaérték 1 x 10 x (1/1 000 000) = 0,00001 (V)
2. példa: Ha az 1 0 (V) hiba 5 ppm, a tényleges hibaérték 10 x 5 x 10-6 = 50 u (V)
A pontossági előírásokat meghatározott körülmények között határozzák meg, például a környezeti hőmérséklet változásai és a műszer beállításai (például AUTO ZERO BE/KI).
