c语言gettickcountclock()每次测出的程序运行时间都不一样,为什么 不应该是一个固定的数么

在c语言gettickcount中有一种技巧可以仳较程序运行的时间,就是使用clock()函数

  • 用于捕捉从程序开始运行到clock()被调用时所耗费的时间。时间单位是clock tick“时钟打点”。

原创文章 0获赞 17访问量 12万+

  800MHz的机器上这不过是十分之一微秒的时间。对大多数应用来说这点时间完全可以忽略不计;而对那些确实要精确到纳秒数量级的应用来说,这个补偿也过于粗糙了  
这個方法的优点是:  
1.高精度。可以直接达到纳秒级的计时精度(在1GHz的CPU上每个时钟周期就是一纳秒)这是其他计时方法所难以企及的。  
函数根据MSDN的说明需要硬件的支持(虽然我还没有见过不支持的机器)和KERNEL库的支持,所以二者都只能在Windows平台下使用(关于DOS平台下的高精度计时問题可以参考《图形程序开发人员指南》,里面有关于控制定时器8253的详细说明)但RDTSC指令是一条CPU指令,凡是i386平台下Pentium以上的机器均支持甚至没有平台的限制(我相信i386版本UNIX和Linux下这个方法同样适用,但没有条件试验)而且函数调用的开销是最小的。

我要回帖

更多关于 c语言gettickcount 的文章

 

随机推荐