个人理解不一定正确,分辨率就是最小刻度
精度与整个系统有关,比如1v电压你这个系统测量出来的是多少伏
假如只考虑参考电压的温漂
一个系统,参考电压2.048v,12bit ADC,测量1v的直流输入,理论上应该是:m1=2.048/4096=2000,那么根据这个采样值得到的真实电压为:2000*2.048/4096=1v
如果参考电压发生了变化,变成2.5v了,那么实际测量值为:1638.4,考虑到采样值是整数,所以实际值可能是1638,因为参考电压是系统的“参考电压”(有点绕),那么我们认为他是准确的,也就是我们认为他还是没变就应该是2.048v了,这样根据这个采样值算出来的电压为:1638*2.048/4096=0.819v,这个误差为:18.1%,这个其实就是(2.5-2.048)/2.5=18.08%(因为采样是整数,所以这个与18.1%有些差别)
从这儿可以看到,虽然ADC的最小刻度没变,但是精度却很差,可以对应到我们常用的米尺为:尺子的最小刻度没变,但是由于热胀冷缩尺子整个变长(或变短)了,所以测量得到的物体的尺寸也不对了,但是这个尺子还是能够按照最小刻度来区分两个不同物体谁长谁短,只不过绝对值已经不对了。这个也就是ADC的分辨率和精度的关系
从上面的例子可以大概得到选取ADC基准源的方法,不考虑系统其他部分的误差,那么测量误差=基准误差(实际上由于整个系统其他部分也不是理想的,所以测量误差>基准误差)
假设12Bit ADC,那么分辨率为1/4096,如果我们想达到1/4096的精度,也就是对于实际1v的输入我们希望测量的结果为:0.999755859375 ~ 1.000244140625之间
这样基准电源的误差<1/4096,假设我们的系统工作范围为30℃,那么对应的温漂为:(1/4096)/30*1e6=8.13ppm/℃