为什么代码会超时?
前言
一些同学对计算机运行的速度没有概念,可能就是感觉计算机运行速度应该会很快,但我们在做算法题目的时候为什么会超时呢?我们的计算机究竟1s可以计算多少次呢?接下来我们来探讨一下这几个问题。
超时是怎么回事

大家刷leetcode时候应该都遇到过知一种错误是超时也就是说程序运行的时间超过了规定的时间,而leetcode并没说程序运行了多久超时,也没有说超时时间具体是多少一般现在判题系统的超时时间就是1s,其他OJ呢,例如POJ 或者ZOJ 超时时间都基本上都是1s也就是用例数据输入后最多要1s内得到结果,leetcode 应该也是1s左右(leetcode上可能每道题限制会有所不同)。下文为了方便讲解,暂定超时时间就是1s接下来我们要知道我们的代码为什么会超时的也就是如果我们写出了一个O(n)的算法 ,我们其实可以估算出来n是多大的时候,我们算法的执行之间就会超过1s如果知道n的规模已经足够让O(n)的算法运行时间超过了1s,此时我们就应该考虑log(n)的解法
从硬件配置看计算机的性能
因为我们主要看计算机的运算速度,所以主要看CPU的配置以我自己的Macpro为例 CPU配置:2.7 GHz Dual-Core Intel Core i5
也就是 2.7 GHz 奔腾双核,i5处理器这里在介绍一下 GHz的概念1Hz = 1/s1Hz 就可以理解是cpu单位时间内完成了一次操作,我们称之为为赫兹那么1GHz等于多少赫兹呢1GHz(吉赫)= 1000MHz(兆赫)1MHz(兆赫)= 1百万赫兹所以 1GHz = 10亿Hz,表示CPU可以一秒运行10亿次,2.7GHz就是27亿次再加上双核所以就是理论上我的计算机1s可以运行54亿次但是不要以为计算机的cpu 1s运行54亿运算都用到了我们自己写的程序上这里面水分很多的,首先不是CPU每次运行都能实现一次运算,有时候大概运行十几次才能完成一次运算。例如CPU执行一步完整的乘法,不仅涉及寄存器的调用,还多其他数据处理的操作。同时cpu也要执行计算机的各种进程任务等等,我们的程序仅仅是其中的一个进程而已所以我们的程序在计算机上究竟1s真正能执行多少次操作呢?
做个试验测一下计算机的运行速度
我们来测一下计算机的运行速度究竟是多少这是我们需要的头文件
// 头文件
#include <iostream>
#include <chrono>
#include <thread>
using namespace std;
using namespace chrono;
我们实现三个函数,时间复杂度分别是 O(n) , O(n^2), O(nlogn)
// O(n)
void function1(long long n) {
long long k = 0;
for (long long i = 0; i < n; i++) {
k++;
}
}
// O(n^2)
void function2(long long n) {
long long k = 0;
for (long long i = 0; i < n; i++) {
for (long j = 0; j < n; j++) {
k++;
}
}
}
// O(nlogn)
void function3(long long n) {
long long k = 0;
for (long long i = 0; i < n; i++) {
for (long long j = 1; j < n; j = j*2) { // 注意这里j=1
k++;
}
}
}
那么接下来我们来看一下这三个函数随着n的规模变化,耗时会产生多大的变化这里呢 假如我们先测function1 ,就把 function2 和 function3 注释掉
int main() {
long long n; // 数据规模
while (1) {
cout << "输入n:";
cin >> n;
milliseconds start_time = duration_cast<milliseconds >(
system_clock::now().time_since_epoch()
);
function1(n);
// function2(n);
// function3(n);
milliseconds end_time = duration_cast<milliseconds >(
system_clock::now().time_since_epoch()
);
cout << "耗时:" << milliseconds(end_time).count() - milliseconds(start_time).count()
<<" ms"<< endl;
}
}
我们来看一下运行的效果。

O(n)的算法,1s内大概计算机可以运行 5*(10^8)
次计算接下来我们来推测一下O(n^2) 的算法,1s 可以 运行多少次计算呢, 应该是对5*(10^8)
开根号 的次数看一下实验数据!

O(n^2)的算法,1s内大概计算机可以运行 22500
次计算, 验证了刚刚的推测在推测一下O(nlogn)的话, 1s可以运行多少次呢,理论上应该是比 O(n)少一个数量级因为logn的复杂度 其实是很快。再看一下实验数据!

O(nlogn)的算法,1s内大概计算机可以运行 2*(10^7)
次计算,符合我们的预期完整的测试代码,可以在这里获取
https://github.com/youngyangyang04/algorithm_interview_course/blob/master/chapter_two/section_2.cpp
总结
这是在我自己的计算机上测出来的数据,不能说是十分精确,数量级是差不多的,大家可以用来参考一下

至于O(logn) 和O(n^3) 等等这些时间复杂度在1s内可以处理的多大的数据规模,同学们可以自己想一想写代码去测一下