jimsboy 发表于 2011-8-6 19:38:40

求教:数字表的误差限怎么计算

数字万用表的误差计算好像和模拟表不一样。
比如三位半的表,最大1999读数,精度是0.5%。通过测得值a和它的真实值b怎么计算误差?或怎么计算误差极限?
请懂的人来解答一下。十分感谢

fjjyxtf 发表于 2011-8-7 18:21:47

误差值与标准值的百分比应该是一样的

lymex 发表于 2011-8-7 19:38:56

>>通过测得值a和它的真实值b怎么计算误差?

(1 - b/a)×100%

jimsboy 发表于 2011-8-7 20:23:25

那189万用表,精度0.025正负2个字。测10V按样说应只能在.10.005-9.995之间吗?但校准证书上给的上下限要比这个宽很多。

只抽555 发表于 2011-8-13 13:34:40

引用第3楼fjjyxtf于2011-08-0718:21发表的:
误差值与标准值的百分比应该是一样的 https://bbs.38hot.net/images/back.gif

我想不可能一样,比如某数字表测量5V基准,显示4.99V,而测量0.1V显示0.11V,那么很显然误差相差极大,怎么可能一样呢。所有的表测量不同值时的误差很多都不一样,国产表很难做到全量程范围内的误差都在规定的精度范围内吧
页: [1]
查看完整版本: 求教:数字表的误差限怎么计算