逻辑回归

本文介绍了如何在Jupyter中查看函数用法,并详细探讨了逻辑回归的梯度下降实现,包括numpy.concatenate()函数的使用,以及y_data通过数据切片增加维度的方法。还讲解了逻辑回归在sklearn中的应用,如coef_和intercept_参数的含义,以及classification_report的使用,展示了分类指标的文本报告。
摘要由CSDN通过智能技术生成

jupyter里查看函数用法:

点到函数,再shift+tab

运行一下函数

shift+enterimageimageimageimageimageimageimageimage

逻辑回归的梯度下降的代码

numpy.concatenate()函数

np.concatenate((a,b),axis=1) #axis=1表示对应行的数组进行拼接,横着加
np.concatenate((a,b),axis=0) # axis=0为按列拼接,竖着加
不写axis参数的话,默认为按列拼接;
若axis = -1的话,即为按行拼接:

y_data = data[:,-1,np.newaxis]

增加了一个维度,一维变成二维

np.multiply

矩阵的按位子相乘
1,2 |2,3
3,4 |2,4

2,6
6,16

image

#画图例

plt.legend(handles=[scatter0,scatter1],labels=['label0','label1'],loc='best')
best是自动选择最佳的位置image

np.ones((100,1))

np.ones()函数返回给定形状和数据类型的新数组,其中元素的值设置为1。
难点:image
因为:image

https://github.com/xinxuann/MachineLearningNote/blob/main/逻辑回归/梯度下降法-逻辑回归.ipynb

逻辑回归的sklearn的代码

image

coef_和intercept_总结

coef_和intercept_都是模型参数,即为w
coef_为w1到w4
intercept_为w0
intercept:截距

classification_report

sklearn中的classification_report函数用于显示主要分类指标的文本报告.在报告中显示每个类的精确度,召回率,F1值等信息。https://github.com/xinxuann/MachineLearningNote/blob/main/逻辑回归/sklearn-逻辑回归.ipynb

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值