258 Add Digits - LeetCode

Given a non-negative integer num, repeatedly add all its digits until the result has only one digit.

For example:

Given num = 38, the process is like: 3 + 8 = 111 + 1 = 2. Since 2 has only one digit, return it.

Follow up:

Could you do it without any loop/recursion in O(1) runtime?

1、递归

class Solution {
public:
    int addDigits(int num) {
        if(num>=0&&num<10) return num;
        int result=0;
        while(num){
            result+=num%10;
            num/=10;
        }
        return  addDigits(result);
    }
};
2、循环
class Solution {
public:
    int addDigits(int num) {
        if(num<0) return 0;
        int result=0;
        while(num>=10){
            result=0;
            while(num!=0){
                result+=num%10;
                num/=10;
            }
            num=result;
        }
        return num;
    }
};

3、观察规律,以9为循环

class Solution {
public:
    int addDigits(int num) {
       return num<=0?0:num%9?num%9:9;
    }
};




  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是具体的步骤: 1. 加载数据集 首先我们需要加载手写数字数据集。 ```python from sklearn.datasets import load_digits digits = load_digits() X, y = digits.data, digits.target ``` 2. 划分数据集 我们将数据集划分为训练集和测试集。 ```python from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) ``` 3. 构建随机森林、Adaboost、梯度提升树模型 我们可以使用sklearn中的RandomForestClassifier、AdaBoostClassifier、GradientBoostingClassifier类来构建随机森林、Adaboost、梯度提升树模型。 ```python from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier, GradientBoostingClassifier rf_clf = RandomForestClassifier(n_estimators=100, random_state=42) ada_clf = AdaBoostClassifier(n_estimators=100, random_state=42) gb_clf = GradientBoostingClassifier(n_estimators=100, random_state=42) rf_clf.fit(X_train, y_train) ada_clf.fit(X_train, y_train) gb_clf.fit(X_train, y_train) ``` 4. 集成三个模型 我们可以使用sklearn中的VotingClassifier类来将三个模型进行集成。 ```python from sklearn.ensemble import VotingClassifier voting_clf = VotingClassifier(estimators=[('rf', rf_clf), ('ada', ada_clf), ('gb', gb_clf)], voting='hard') voting_clf.fit(X_train, y_train) ``` 5. 比较性能 我们可以使用sklearn中的accuracy_score函数来计算模型在测试集上的准确率。 ```python from sklearn.metrics import accuracy_score for clf in (rf_clf, ada_clf, gb_clf, voting_clf): clf.fit(X_train, y_train) y_pred = clf.predict(X_test) print(clf.__class__.__name__, accuracy_score(y_test, y_pred)) ``` 输出结果如下: ``` RandomForestClassifier 0.9740740740740741 AdaBoostClassifier 0.662962962962963 GradientBoostingClassifier 0.9703703703703703 VotingClassifier 0.9703703703703703 ``` 从结果可以看出,随机森林和梯度提升树的表现比Adaboost要好,而使用投票方法集成三个模型后的准确率与随机森林和梯度提升树的准确率相当。因此,我们可以选择使用随机森林、梯度提升树和投票方法集成三个模型来构建手写数字分类模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值