请问怎样计算出一个C语言程序运行所需具体时间(精确到0.1秒)?

信息学竞赛一般对一个程序得出数据的时间有限制,比如1秒,0.5秒什么的,
但是我不知道我写出的程序需要用多少秒,所以想请教大家如何计算出一个C语言程序运行所需具体时间(精确到0.1秒),可以举例说明,可以分情况(最好,最坏,平均),最好详细些,谢谢.

包含头文件 #include <time.h>

int t1, t2;

程序开始计算前:
t1 = clock();
程序计算结束后:
t2 = clock();
那么t2 - t1 就是计算所需的时间了,
单位就是ms
温馨提示:答案为网友推荐,仅供参考
第1个回答  2008-10-26
#include <time.h>
i=clock();

/*程序段*/

printf("计算耗时:%dms\n",clock()-i);

这个可以精确到毫秒级
第2个回答  2008-10-26
可以使用clock函数,其用法请看这里:
http://zhidao.baidu.com/question/5091449.html

参考资料:http://zhidao.baidu.com/question/5091449.html

相似回答