Problem Description
给定n(1<=n<=50000)个整数(可能为负数)组成的序列a[1],a[2],a[3],…,a[n],求该序列如a[i]+a[i+1]+…+a[j]的子段和的最大值。当所给的整数均为负数时定义子段和为0,依此定义,所求的最优值为: Max{0,a[i]+a[i+1]+…+a[j]},1<=i<=j<=n。 例如,当(a[1],a[2],a[3],a[4],a[5],a[6])=(-2,11,-4,13,-5,-2)时,最大子段和为20。
注意:本题目要求用分治递归法求解,除了需要输出最大子段和的值之外,还需要输出求得该结果所需的递归调用总次数。
递归调用总次数的获得,可以参考以下求菲波那切数列的代码段中全局变量count的用法:
include
int count=0;
int main()
{
int n,m;
int fib(int n);
scanf(“%d”,&n);
m=fib(n);
printf(“%d %d\n”,m,count);
return 0;
}
int fib(int n)
{
int s;
count++;
if((n==1)||(n==0)) return 1;
else s=fib(n-1)+fib(n-2);
return s;
}
Input
第一行输入整数n(1<=n<=50000),表示整数序列中的数据元素个数;
第二行依次输入n个整数,对应顺序表中存放的每个数据元素值。
Output
一行输出两个整数,之间以空格间隔输出:
第一个整数为所求的最大子段和;
第二个整数为用分治递归法求解最大子段和时,递归函数被调用的总次数。
Example Input
6
-2 11 -4 13 -5 -2
Example Output
20 11
#include<stdio.h>
#include<stdlib.h>
#include<string.h>
#include<malloc.h>
#include<math.h>
//#define OVERFLOW -1
#define OK 1
#define LISTSIZE 100100
#define MAXSIZE 10
typedef int ElemType;
typedef struct
{
ElemType *elem;
int length;
int listszie;
}Sqlist;
int max(int a,int b)
{
return a > b ? a : b;
}
int Initlist(Sqlist &L)
{
L.elem = (ElemType *)malloc(LISTSIZE*sizeof(ElemType));
if(!L.elem) return -1;
L.length = 0;
L.listszie = LISTSIZE;
return OK;
}
void Insert(Sqlist &L,int n)
{
int i;
for(i = 0;i<n;i++)
{
scanf("%d",&L.elem[i]);
L.length ++;
}
}
int count;
int Fenzhi(Sqlist&L,int l,int r)
{
int sum =0;
count++;
if(l == r)
{
if(L.elem[l]>=0)
sum = L.elem[l];
else
sum = 0;
}
else
{
int mid = (l+r)/2;
int lsum = Fenzhi(L,l,mid);
int rsum = Fenzhi(L,mid+1,r);
int s ,ls,rs;
s = ls = 0;
for(int i=mid;i>=l;i--)
{
s+=L.elem[i];
if(s>ls)
ls = s;
}
s = rs = 0;
for(int i=mid+1;i<=r;i++)
{
s+=L.elem[i];
if(s>rs)
rs = s;
}
sum = ls+rs;
sum = max(sum,lsum);
sum = max(sum,rsum);
}
return sum;
}
int main()
{
Sqlist L;
int n;
count = 0;
scanf("%d",&n);
Initlist(L);
Insert(L,n);
int k = Fenzhi(L,0,n-1);
printf("%d %d\n",k,count);
return 0;
}
/***************************************************
User name:
Result: Accepted
Take time: 12ms
Take Memory: 300KB
Submit time: 2017-09-16 09:13:09
****************************************************/