踩坑水题:0和5

踩坑水题:0和5


题目描述


小C手中有n张牌,每张牌上有一个一位数的数,这个数字不是0就是5。
小C从这些牌在抽出任意张(不能抽0张),排成一行就组成了一个数。
使得这个数尽可能大,而且可以被90整除。

注意:
1.这个数没有前导0,
2.小C不需要使用所有的牌。


输入描述:


每个测试数据输入共2行。
第一行给出一个n,表示n张牌。(1<=n<=1000)
第二行给出n个整数a[0],a[1],a[2],…,a[n-1] (a[i]是0或5 ) 表示牌上的数字。


输出描述:


共一行,表示由所给牌组成的可以被90整除的最大的数,如果没有答案则输出”-1”(没有引号)
示例1
输入
4
5 0 5 0
输出
0

题解:我只想说出题人太坑了,注意里说“小C不需要使用所有的牌”这是什么意思啊
难道不是小C不能用所有的牌,结果一直WA,WA的我怀疑人生,果然语文没学好,是可以有所有牌都用的情况的,
别说了,心态崩了,代码如下:

#include<bits/stdc++.h>
#define ll long long
using namespace std;
int main()
{
    int n;
    int a[1010];
    while(~scanf("%d",&n))
    {
        int num1=0,num2=0;
        for(int i=0; i<n; i++)
        {
            scanf("%d",&a[i]);
            if(a[i]==5)
                num1++;
            else
                num2++;
        }
        if(num1/9>=1)
        {
            int num3=num1/9;
            for(int i=0; i<num3*9; i++)
                printf("5");
            for(int i=0; i<num2; i++)
                printf("0");
            printf("\n");
        }
        else
        {
            if(num2!=0)
            {
                printf("0\n");
            }
            else
                printf("-1\n");
        }
    }
    return 0;
}

恍恍惚惚

### 回答1: 在生产环境中使用Hive on Spark时,可能会遇到连接超时的问题。这可能是由于网络延迟、资源不足或配置错误等原因引起的。为了解决这个问题,可以尝试以下几个步骤: 1. 检查网络连接是否正常,确保网络延迟不是导致连接超时的原因。 2. 检查集群资源是否充足,如果资源不足可能会导致连接超时。 3. 检查Hive on Spark的配置是否正确,特别是与Spark相关的配置,如spark.executor.memory、spark.driver.memory等。 4. 尝试增加连接超时时间,可以通过设置hive.server2.long.polling.timeout属性来实现。 5. 如果以上步骤都无法解决问题,可以尝试升级Hive on Spark版本或者联系Hive on Spark的支持团队寻求帮助。 ### 回答2: 最近在实际工作中遇到了一个生产环境的问题,即hive on spark连接hive时出现了connection timeout的错误。具体的错误信息是Failed to execute spark task, caused by org.apache.hive.service.cli.HiveSQLException:Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask。经过排查,我们最终找到了解决方法。 首先,我们查看hive on spark的运行环境,发现问题出在了spark executor的内存配置上。由于我们的hive on spark需要在大数据量的情况下进行数据处理,而我们的spark executor的内存配置过小,导致了程序执行时卡顿或者超时的情况。 其次,我们对比了生产环境和测试环境的配置,发现测试环境的spark executor内存配置远远大于生产环境的内存配置,因此我们决定适当调整生产环境的内存配置,使其与测试环境的配置相近。 最后,我们重启了hive on spark的服务,并重新运行任务,发现问题已经解决了。经过排查,我们认为这个问题主要是由于内存配置过小导致的,而调整内存配置可以有效地解决这个问题。 总之,这个问题是我们在实际生产环境中遇到的一个常见问题,需要结合具体情况进行有效的排查和解决。我们需要关注系统运行环境的配置情况,适时调整系统参数,确保系统可以稳定地运行。同时,我们也需要注意日常工作中的数据处理任务,优化处理任务的算法和代码,减少系统资源消耗,提高系统的运行效率。 ### 回答3: 在使用Hive on Spark时,会经常遇到Connection Timeout的问题。这个问题通常是由于Spark的GC(垃圾回收)所导致的。因为默认情况下,Spark的垃圾回收器会频繁地进行垃圾回收,从而导致连接超时问题。 解决这个问题的方法有几种: 1. 增加Hive on Spark的硬件资源 如果系统的硬件资源不足,例如CPU、内存等,可能会导致连接超时的问题。因此,建议增加硬件资源,以提高Hive on Spark的性能和稳定性。 2. 调整Spark的GC参数 可以通过调整Spark的GC参数,来减少垃圾回收的频率,从而避免连接超时的问题。例如,可以将Spark的GC内存阈值和GC线程数进行调整。 3. 提高网络性能 Hive on Spark的连接超时问题可能还与网络性能有关。如果网络速度较慢或带宽不足,可能会导致连接超时的问题。可以通过提高网络带宽或网络优化来解决这个问题。 4. 升级Hive on Spark版本 如果以上三种方法都无法解决连接超时的问题,可以考虑升级Hive on Spark到最新版本。最新版本通常会修复已知的问题,并提供更好的性能和稳定性。 总之,要解决Hive on Spark的连接超时问题,需要多方面考虑,包括硬件资源、Spark的GC参数、网络性能和软件版本等。只有在综合考虑多个因素的情况下,才能够有效地解决这个问题,从而提高Hive on Spark的稳定性和性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值