Python机器学习:梯度下降法007使用scikit中的随机梯度下降法

#真实数据
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

boston = datasets.load_boston()
X = boston.data
y = boston.target

X = X[y < 50]
y = y[y < 50]
#拆分数据
X_train,X_test,y_train,y_test = train_test_split(X,y)
#归一化
standarScaler = StandardScaler()
standarScaler.fit(X_train)

X_train_standard = standarScaler.transform(X_train)
X_test_standard = standarScaler.transform(X_test)

scikit中的SGD

#scikit-learn中的SGD
from sklearn.linear_model import SGDRegressor

sgd_reg = SGDRegressor(max_iter=100)
sgd_reg.fit(X_train_standard,y_train)
print(sgd_reg.score(X_test_standard,y_test))

打印结果

0.8178403572633133

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[1\]提到了使用sklearn的StandartScaler类来保证特征值的大小比例差不多,以便在应用梯度下降法时收敛时间不会过长。引用\[2\]和引用\[3\]给出了使用梯度下降法进行训练的代码示例。 根据你的问题,如果你想使用Python梯度下降包,可以考虑使用scikit-learn库的SGDRegressor类。这个类实现了随机梯度下降,可以用于回归问题。你可以通过设置不同的参数来调整算的行为,比如学习率、迭代次数等。 以下是一个使用SGDRegressor类的示例代码: ```python from sklearn.linear_model import SGDRegressor # 创建SGDRegressor对象 model = SGDRegressor(learning_rate='constant', eta0=0.01, max_iter=1000) # 训练模型 model.fit(X, y) # 打印模型参数 print("Intercept:", model.intercept_) print("Coefficients:", model.coef_) ``` 在这个示例,我们使用了常数学习率0.01和最大迭代次数1000来训练模型。你可以根据自己的需求调整这些参数。最后,模型的截距和系数可以通过`intercept_`和`coef_`属性获得。 希望这个回答对你有帮助! #### 引用[.reference_title] - *1* *2* *3* [【Python机器学习】之 梯度下降法](https://blog.csdn.net/hongzhen91/article/details/97430665)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值