本帖最后由 bg8aqa 于 2014-2-27 23:23 编辑
计量方面的东西自成一套体系,外人很难完全明白。
我理解数字仪表的误差应该是三个部分,或有三种表达方式(术语不一定正确,大概意思):
1. 满量程误差(Erre of FullScale)
2. 读数值误差(Err of Reading)
3.最小分度值误差(其实计量上分度值division value定义要复杂、绕口些,数表上我们姑且理解为指示器/显示器能读出的最小间隔),具体到数显仪表就是最后一位上下个一个字(就上面的count)
比如一个电压是1.3335V,三位半的表,显示成1.333或1.334都有可能,或者在二者间跳动,完全正常,上下各一个字,就是2个count。
所以你上面的完整含义就是“这个表能保证的精度(误差大小)是读数值的x%再加最后一位上下各一个字”,给的是最大误差的边界,ERRmax,所以写成±(Err-Reading+Count),其实Count的误差和读数误差有可能相反,一个是+、一个是-,一定程度上可以抵消一部分,但也可能都是-差、或都是+差。
这个count就和ADC里面的LSB一样,因为已经无法无法分辨(<或接近最低有效位),往两边靠都有可能。
再举个极端的例子,你有一只数字电压表,只有一位!这是1个count就=1V,碰巧有只5.5V的电池,拿去测就可能显示为5V,也可能显示为6V,呵呵。 |