有一个轴,一千几百转这个级别。轴上有一个信号,大概半圈on,半圈off。(可能不是分得很对称)现在要用程序去测量这个轴的转速。这个轴的转速是可以变的。要求都要和谐显示出来。
现在有一点点问题。编程常规比如每秒计算一次测得的脉冲数量,即使1500转,每秒也就只有25个脉冲。即使转速恒定是1500转,可是有一次一秒算得25个脉冲,有一次算的24个脉冲,有一次又得到26个脉冲,这也很正常。但是算下来的转速就是1440;1500;1560转。显得很奇葩。低速的时候就甭提更奇葩了。
好了。有人想到低速的时候用T法了。比如600转/分的时候。看看测得的转速是多少?
M法每秒11脉冲、10脉冲、9脉冲。算得660、00、540。
T法每脉冲101ms、100ms、99ms。算得594、600、606。
也就是说两种算法测得的转速就只能显示为上述的三个数值,不存在中间值。
先不说怎样切换两种方法,甚至使用MT法。我就觉得这样的显示非常不和谐。
我想有人又反应过来了,滤波。……
各位大侠,你在算这个转速的时候是怎么处理这个情况的?