精度和分辨率的区别

如题所述

分辨率,只是可以直接读数的数值,而精度,影响的是测量值和实际零件尺寸(真值)偏差。

量具的分辨率,其实就是指直接可以读数刻度值,也被叫做分度值。在尺身上,一般都会有标注,这款卡尺的分辨率就是0.02mm。

而尺的实际精度,就需要通过查看这款尺的说明书来确定了。

通过这款千分尺来说明一下。

    尺身标注,分度值为0.001mm,也就是分辨率为0.001mm,可以通过刻度,直接读数0.001mm的数值。比如,直接读数为8.888mm。

    通过性能参数表格,可以看见,这款千分尺,精度是±0.002mm。

    零件真值可能范围就是

    最小尺寸:8.888-0.002=8.886mm

    最大尺寸: 8.888+0.002=8.890mm

    由于尺本身精度的关系,这个零件尺寸是不确定的,按照这个精度,只能确定零件真值在8.886--8.890mm之间。

    购买量具,需要参考零件本身精度要求,否则就是浪费或者测量结果不确定。只要求精度0.1mm的,那么,购买精度0.01或者0.02mm的量具已经足够了。当然,用0.002mm精度的量具测量会更加接近真值。

    但是,精度越好,当然制作难度越大,价格也会越贵。

    里面所有尺寸,均标了单位,其实在机械行业,默认不需要标注的,都是说的mm。

温馨提示:答案为网友推荐,仅供参考
第1个回答  2020-02-27
精度反映了测量值与真实值的相近程度。分辨率(习惯叫它分辨力)是装置能够有效辨别的最小数值。对于模拟仪器来说,分辨力是分度值。
比如一把尺子,最小的刻度线是1mm,那么分辨力就是1mm。也可以直接看仪器显示的最末一位数字间的间隔。比如一个机器,显示的数值可以是410.01v,410.02v等等等等,那么分辨力就是0.01v,因为它可以显示的最末位数值间隔就是0.01.
要提高仪器的精度,需要有足够的分辨力来保证,但是并不是分辨力越高,精度就越高。
分辨力高不代表精度越高,比如,你测一个电压,真实值是60.01v,你的仪器分辨力已经很高了,0.00001了,但如果测出来的值是51.00008v,那这个测量值也一样不准确。
第2个回答  2017-10-23
精度是表示测量值离散的程度;分辨力是显示装置能有效辨别的最小的示值差。
精度:是表示测量值离散的程度。在对一个量进行无穷多次测量时,测量结果会呈现正态分布。测量仪表(包括传感器)的精度就是指测量结果 99.73% 的可能(这里跳过关于统计学知识的讨论)偏离真值的范围。对于测量仪器来说,精度是一个定性的概念,一般不用数值表达。
和精度相类似的仪器指标还有准确度:指在一定实验条件下多次测定的平均值与真值相符合的程度,以误差来表示。例如:
仪器允许产生的误差为量程的0.5%。即准确度0.5%或0.5级;
仪器允许产生的误差为正负某个数值。
精度和准确度有相似性,但两者的定义是不同的。精度是表示测量值离散的程度。准确度表示观测值与真值的接近程度。平常所说的“精度”实际上很多时候是指准确度。
分辨力:显示装置能有效辨别的最小的示值差。对于数字式显示装置,这就是当变化一个末位有效数字时其示值的变化。此概念亦适用于记录仪装置。
传感器的准确度,灵敏度与分辨率之间有较大的关系。灵敏度与分辨率从不同角度反映传感器能够测量的最小量值。灵敏度与分辨率关系到传感器可能产生的最大误差。本回答被提问者采纳
相似回答