恭喜,你发布的帖子
发布于 2019-11-03 15:25:16
10楼
这不是精度问题而是分辨率的问题,打个比方你拿一块只显示到秒的跑表,当你如果不是一直盯着它,而是偶尔看一下它看到8秒的时候是不是肯定过了8秒极有可能都快到9秒了,如果有个定时器此刻启动了,一到9秒立刻计时1秒,而实际上定时器才刚刚启动根本还未有1秒。由此想象有块跑表比较高级可以显示到0.01秒,用它来计时虽有同前述跑表一样的问题但差个0.01秒似乎精度大幅提高了。但真是精度提高了吗?PLC的定时器时钟都是同一个晶振产生时基信号精度是一样的,出现偏差是程序运行造成的。
1ms是实时更新;10ms是在扫描周期开始更新;100ms是扫描周期扫描到定时器时更新。不论是咋更新的,都是从零开始计数的。
从零开始计数,PT设的多少,就应该是多少。比如100m定时器,PT=10。那么计数到10,就应该是1秒。如果按照那个“说明”,PT=11才是1秒,所以想不通。
请填写推广理由:
分享
只看
楼主