38度发烧友--38Hot Volt-Nuts

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 52|回复: 0

求教:数字表的误差限怎么计算

[复制链接]
发表于 2011-8-6 19:38:40 | 显示全部楼层 |阅读模式
数字万用表的误差计算好像和模拟表不一样。
比如三位半的表,最大1999读数,精度是0.5%。通过测得值a和它的真实值b怎么计算误差?或怎么计算误差极限?
请懂的人来解答一下。十分感谢
发表于 2011-8-7 18:21:47 | 显示全部楼层
误差值与标准值的百分比应该是一样的
回复 支持 反对

使用道具 举报

发表于 2011-8-7 19:38:56 | 显示全部楼层
>>通过测得值a和它的真实值b怎么计算误差?

(1 - b/a)×100%
回复 支持 反对

使用道具 举报

 楼主| 发表于 2011-8-7 20:23:25 | 显示全部楼层
那189万用表,精度0.025正负2个字。测10V按样说应只能在.10.005-9.995之间吗?但校准证书上给的上下限要比这个宽很多。
回复 支持 反对

使用道具 举报

发表于 2011-8-13 13:34:40 | 显示全部楼层
引用第3楼fjjyxtf于2011-08-07  18:21发表的  :
误差值与标准值的百分比应该是一样的
我想不可能一样,比如某数字表测量5V基准,显示4.99V,而测量0.1V显示0.11V,那么很显然误差相差极大,怎么可能一样呢。所有的表测量不同值时的误差很多都不一样,国产表很难做到全量程范围内的误差都在规定的精度范围内吧
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表