恭喜,你发布的帖子
发布于 2025-11-10 12:38:42
34楼
提到精度问题,这才算是个对问题正经的讨论,但大概也是人云亦云,并不真的理解。
我不觉得PLC厂商如果实现 1S分辨率一定会比100ms 分辨率误差更大,这理由没有说服力,最简单的是厂商可以将 MUL_I *10 和 100ms定时器封装,那跟用户自己手动 *10,精度有什么区别?而且在我的理解里,同样的定时时间,越细分辨率意味着需要越多次的重新装载。
这问题我也问了DEEPSEEK,它一上来也说是不用1S 分辨率是因为1S分辨率 会产生非常大的误差,它举例子,算着算着……,结果是:100ms分辨率会比1秒分辨率误差大得多,把它自己给整凌乱了
。
那么,很诚恳地请教,如果厂商是因为 1s周期会产生很大误差而不直接提供1s周期的话,那到底为什么 1S周期 就比100ms周期误差大?
Smart200的定时精度(不是分辨率!)只有两种。
一种就是1ms、10ms、100ms、1s脉冲的精度,它来自MCU晶振的误差。系统不存在装载引起的误差。最底层的硬件定时器,装载是自动的,不差一个时钟。
第二种是RTC(实时时钟),它的误差足以支持长时间定时,但短时因没有中断支持,分辨率限在1s。
请填写推广理由:
分享
只看
楼主