这是我人生中的第一篇博客,肯定会有许多问题和错误,还请大家及时指点。
下面就在C语言程序中运用浮点数时产生的误差进行一些分析,首先先看一个程序:
# include<stdio.h>
int main()
{
float a=123456789;
printf("%f\n",a);
return 0;
}
我们在进行预测时预测的结果(理论值)为123456789.000000,但是实际的运行结果(实际值)却为123456792.000000,
这就说明程序在运行时产生了一定的误差,而这个误差不可避免。这就像我们生活中用到的时钟一样,时间长了就会有些不准确了。
于是我们在写程序时就要重新定义一个变量,来减少实际值与理论值之间的误差,在C语言程序中表示为:理论值-误差<实际值&&实际值<理论值+误差,在程序中我们称误差为精度。
下面说一个例子,这个程序是求二元一次方程组的根的,