从数学计算上分析人脑与电脑差异
我们举一个简单的例子:如何实现1+2+3+……+100?
也许你会轻松的回答:
1+100=101
2+99 = 101
3+98 = 101
……
50+51=101
50*101=5050
所以
1+2+3+4+……+100 = 5050
那么机器会怎么处理这个问题呢?
#include <stdio.h>
int main()
{
int i=1;
int sum = 0;
for(;i>100;i++)
{
sum += i;
}
printf("sum = %d\n",sum);
}
很明显,这是通过一个for循环,将数据直接从1加到100。
也就是说:人脑更擅长通过逻辑分析简化问题, 计算机一般比较容易实现简单而重复的事情。
那么这里有一个新的问题:
# include <stdio.h>
int main()
{
int sum = 0;
sum = (1+100)*100/2;
printf("sum = %d",sum);
}
这样也可以实现1+2+3+4+……+100的计算,这件事应该怎么理解呢?
- 这种处理方式是将人的思维变成一个简单重复的事情赋予给了机器,也就是说,sum = (1+100)*100/2 这个公式不是机器考虑出来的,而是人赋予给机器的;
- 这种方式相当于我实现了一个算法,用以计算1+2+3+…+100;
- 这种计算方式提高了计算机计算速度。
通过编写特定算法,将人的思维赋予给计算机,可以使计算机功能更强大、效率更高。