蓝桥杯——ALGO1000——kAc给糖果你吃

通过万岁!!!

  • 题目:给定一个长度为n的数组,然后里面存放的是糖果数,要求我们拿m次,尽可能的拿到最多的糖果。
  • 思路:就是拿前m个最大的数。我的做法是直接对数组进行排序,然后从n-m开始取,取到最后。
  • 技巧:就是贪心,每次都拿最大的。
  • 题目链接:http://lx.lanqiao.cn/problem.page?gpid=T2985

java代码

import java.util.Arrays;
import java.util.Scanner;


/**
* @创建人 xcs
* @创建日期 2022/3/22
* @创建时间 14:30
* 题目链接:http://lx.lanqiao.cn/problem.page?gpid=T2985
*/
public class ALGO1000 {
    public static void main(String[] args) {
        Scanner scanner = new Scanner(System.in);
        int n = scanner.nextInt();
        int m = scanner.nextInt();
        long num[] = new long[n];
        for (int i = 0; i < n; i++) {
            num[i] = scanner.nextInt();
        }
        if (n <= m) {
            System.out.println(Arrays.stream(num).sum());
            return;
        }
        Arrays.sort(num);
        long sum = 0;
        for (int i = n - m; i < n; i++) {
            sum += num[i];
        }
        System.out.println(sum);
    }
}
  • 总结:题目比较简单,这里的排序直接用的java的库函数。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
贝叶斯优化算法是一种基于贝叶斯定理的优化算法,可以用于自动调参。其中,hyperopt是一个使用贝叶斯优化算法的Python包,可以帮助我们自动调整模型的超参。 使用hyperopt,我们需要定义一个目标函,这个函输入超参的值,输出模型的评分。然后,我们可以使用hyperopt的fmin函来最小化这个目标函,以找到最佳的超参组合。 下面是一个使用hyperopt调参的示例代码: ```python from hyperopt import fmin, tpe, hp from sklearn.datasets import load_iris from sklearn.ensemble import RandomForestClassifier from sklearn.model_selection import cross_val_score # 定义目标函 def objective(params): # 超参 n_estimators = params['n_estimators'] max_depth = params['max_depth'] min_samples_split = params['min_samples_split'] # 定义模型 clf = RandomForestClassifier(n_estimators=n_estimators, max_depth=max_depth, min_samples_split=min_samples_split) # 计算交叉验证得分 iris = load_iris() scores = cross_val_score(clf, iris.data, iris.target, cv=5) # 返回平均得分 return 1 - scores.mean() # 定义超参搜索空间 space = { 'n_estimators': hp.choice('n_estimators', range(10, 1000)), 'max_depth': hp.choice('max_depth', range(1, 20)), 'min_samples_split': hp.choice('min_samples_split', range(2, 10)) } # 使用Tree-structured Parzen Estimator算法搜索最佳超参 best = fmin(fn=objective, space=space, algo=tpe.suggest, max_evals=100) # 输出最佳超参组合 print(best) ``` 在上面的代码中,我们定义了一个目标函objective,它的输入是超参的值,输出是模型的评分。然后,我们定义了超参的搜索空间space,它包括n_estimators、max_depth和min_samples_split三个超参。最后,我们使用Tree-structured Parzen Estimator算法搜索最佳超参,最多进行100次迭代。 执行上述代码后,我们可以得到最佳的超参组合,输出类似于{'max_depth': 4, 'min_samples_split': 8, 'n_estimators': 315}的结果。这个结果可以用于训练一个随机森林模型,并进行预测。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值