算法编程的第一步,必然是输入各种必要的数据参数,
通常使用scanf,cin,getchar(),fread等读取输入数据,当数据量不大,几行,几十行时,
以上各种方法没有明显的区别,但是,当数据量为:千万数量级的时候,区别大吗?
下面分别讨论:
(1)使用scanf();
int a[10000001];
for (int i=1;i<=10000000;i++) scanf("%d",a+i);
耗时:32 秒左右。(算法测试一般要求1~2秒完成!!)
(2)使用getchar()
void read_d(int n)
{
int j=0;
char ch = getchar();
for(int i=0;i<n && ch>0;i++){
int val=0;
bool minus=0;
while(ch!='-' && (ch<'0' || ch>'9')) ch = getchar();
if (ch=='-' ) {
minus = 1;
ch = getchar();
}
while(ch>='0' && ch<='9'){
val = val*10+(ch-'0');
ch = getchar();
}
if (minus) val = -val;
a[i] = val;
ch = getchar();
}
}
千万级数据输入耗时:3秒
(性能提升10倍,但是和算法测试的要求还是有差距的)
(3)使用fread();
const int maxi = 10000000;
int a[maxi+1];
char chs[9*maxi];
void fread_d(int n)
{
fread(chs,1,9*maxi,stdin);
int j=0;
for(int i=0;i<n && chs[i];i++){
char ch;
int val=0;
bool minus=0;
while(chs[j]!='-' && (chs[j]<'0' || chs[j]>'9')) j++;
if (chs[j]=='-' ) {
minus = 1;
j++;
}
while(chs[j]>='0' && chs[j]<='9'){
val = val*10+(chs[j]-'0');
j++;
}
if (minus) val = -val;
a[i] = val;
}
}
千万级数据处理耗时:0.50秒
(终于可以在1秒之内完成,达标)
(4)以下是测试用Main函数:
int main(){
int start = clock();
printf("start:%d\n",start);
freopen("databig.txt","r",stdin);
//read_d(maxi);
fread_d(maxi);
fprintf(stdout,"%.4lf\n",double(clock()-start)/CLOCKS_PER_SEC);
return 0;
}
(5) 其他:
如果是按行读入大的文本行,可以试fscanf(),每次可读一行,不管行有多长,遇到空格、回车换行结束,
速度比getline稍快。
如果一定要使用Cin输入,可以关闭流同步开关,速度可接近scanf.
std::ios::sync_with_stdio(false);
<End>