hdu 3183 A Magic Lamp(贪心,RMQ)

A Magic Lamp

Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others)
Total Submission(s): 2361    Accepted Submission(s): 938

点击打开链接

Problem Description
Kiki likes traveling. One day she finds a magic lamp, unfortunately the genie in the lamp is not so kind. Kiki must answer a question, and then the genie will realize one of her dreams.
The question is: give you an integer, you are allowed to delete exactly m digits. The left digits will form a new integer. You should make it minimum.
You are not allowed to change the order of the digits. Now can you help Kiki to realize her dream?

Input
There are several test cases.
Each test case will contain an integer you are given (which may at most contains 1000 digits.) and the integer m (if the integer contains n digits, m will not bigger then n). The given integer will not contain leading zero.

Output
For each case, output the minimum result you can get in one line.
If the result contains leading zero, ignore it.

Sample Input
178543 4
1000001 1
100001 2
12345 2
54321 2

Sample Output
  
  
13 1 0 123 321

题目大意就是给你一个数字串,从中间删除 d 个数字,在不改变原有顺序的情况下,得到的最终的数字串最小。
刚一开始我就想到了搜索,枚举每一个点然后再来一次,这样子最坏的情况下复杂度可能到达 1000! 肯定是不可以的,然后一想,字符串的长度是给定的,删除的个数也是给定的,那么最终串的长度也是给定的,因此就有了贪心的想法。

字符串的长度是 n ,需要删除的个数是 d 因此最终串的长度是 n-d 。
需要一个数字一个数字的找出答案,而且不能改变原有的顺序,因此第一个答案一定只能在前 d+1 个数字里,也就是区间【1,d+1】,因为最坏的情况是第 d+1 个数字当选,然后后面剩余 n-d-1 个数字,加起来正好是 n-d 个数字,因此在拿到每一个数字的时候一定要考虑到给下一次搜索足够的数字个数。 

假设当前找到的数字下表为 x ,那么下一次需要找的区间是 【x+1,d++】(考虑到给下一次搜索足够的数字个数)。(也是因为这里我WA了好几发)

搜到最后一个点也就结束了,答案就出来了,输出时注意处理下前导 0 。

AC 代码

#include <iostream>
#include <cstdio>
#include <cstring>
#include <cmath>

#define SIZE 1050
#define Maxn 1000
using namespace std;
typedef long long ll;

char a[SIZE],ans[SIZE];
int d,n,len,cnt,flag;
void DFS(int i)
{
    if(flag) return ;
    if(n <= len-cnt)        //数组里剩余数字正好填补剩余空缺
    {
        for(int z = i; z < (int)strlen(a) ; z ++)
            ans[cnt ++] = a[z];
        flag = 1;
        return ;
    }
    int x = i;
    char minn = a[i];

    int j;      //找到当前区域里的最小值
    for( j = i+1 ; j <= d && j < (int)strlen(a) ; j ++)
    {
        if(minn > a[j])
        {
            minn = a[j];x = j;
        }
    }
    ans[cnt ++] = a[x];
    if(cnt == len)      //找完了所有数字
    {
        flag =1;return ;
    }
    n -= x-i+1;     //数组剩余的数字个数
    d ++;	//WA的地方
    DFS(x+1);
}
void output()
{
    int i;
    for(i = 0 ; i < len-1 ; i ++)
    {
        if(ans[i] != '0')break;;
    }
    for( ; i < len-1; i ++)
    {
        printf("%c",ans[i]);
    }
    printf("%c\n",ans[i]);
}
int main()
{
    freopen("in.txt","r",stdin);
    while(scanf("%s%d",a,&d)!=EOF)
    {
        n = strlen(a);
        if(d >= n){printf("0\n");continue;}
        len = n - d;
        flag = cnt = 0;
        DFS(0);
        output();
        memset(ans,0,sizeof(ans));
    }
    return 0;
}

RMQ  也可以写出来,思路是一样的,一次找到区间的最小值。
char s[1010];       //目标数组
int st[1010][20];       //区间最值数组

int Min(int x,int y)
{
    return s[x] <= s[y] ? x : y;
}

void RMQ_Init(int len)
{
    for(int i = 0; i < len; i++)
    st[i][0] = i;
    for(int j = 1; (1<<j) < len; j++)
    for(int i = 0; i+(1<<j)-1 < len;i++)
    st[i][j] = Min(st[i][j-1],st[i+(1<<(j-1))][j-1]);
}

int Query(int l,int r)
{
    int k = (int)(log((double)(r-l+1))/log(2.0));
    return Min(st[l][k],st[r-(1<<k)+1][k]);
}



深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值