机器学习
文章平均质量分 94
JingYuJingYuJingYu
这个作者很懒,什么都没留下…
展开
-
scikit-learn 中决策树模型-参数说明、注解
目录scikit-learn 中决策树算法类库介绍重要参数`criterion` 特征选择标准对于分类决策树:关于基尼指数对于回归决策树以 squared_error 为例`splitter` 特征划分点选择标准`max_depth` 最大深度`max_features` 划分时考虑的最大特征数`min_samples_split` 叶子节点允许拆分的最小样本数`min_samples_leafi` 叶子节点的最小样本点数`min_weight_fraction_leaf` min_weight_fract原创 2022-01-25 01:23:08 · 2831 阅读 · 0 评论 -
机器学习:决策树 -- 学习笔记
参考文章决策树算法原理(上) - 刘建平Pinard - 博客园决策树算法原理(下) - 刘建平Pinard - 博客园李航《统计学习方法》第二版决策树算法决策树学习算法包含:特征选择决策树生成决策树的剪枝下面会分别对三个部分进行一定的总结,参考资料主要来自于《统计学习方法》。决策树模型基本思想决策树学习本质上是从训练数据集中归纳出一组分类规则。 与训练数据集不相矛盾的决策树(即能对训练数据进行正确分类的决策树) 可能有多个, 也可能一个也没有。 我们需要的是一个与训练数据原创 2022-01-19 17:13:53 · 915 阅读 · 0 评论 -
感知器算法及其python 实现 V2.0
感知器算法及其python 实现2.0#机器学习/学习算法先直接上效果图这是我第二次重新写。之前第一次写的,说实话很多毛病(能跑、能训练,但训练效果和训练速度都很慢,我猜测原因是我 pandas 和 numpy 数据类型混用了,且混得很难看)相比之前的版本,训练速度快的不是一点半点,保守估计至少快了10倍。(之前那个我一般epoch 设置 10、20、100这样,都很慢。现在设置5000 都和之前 10 时间差不多)当然都是在 cpu 上跑的。epoch=10000,l_rate= 0.00001原创 2021-11-16 11:21:20 · 2016 阅读 · 0 评论 -
ResNet 论文阅读笔记
ResNet 论文阅读笔记#机器学习/深度学习文章介绍论文地址:https://arxiv.org/pdf/1512.03385.pdf原文题目:Deep Residual Learning for Image Recognition作者: Kaiming He 团队 (微软亚洲研究院)该文是2016年CVPR 最佳论文,拿下来当年 ImageNet 等数据集以及各项比赛第一名。提出的 ResNet 是基于残差学习,让神经网络训练起来更加容易。直观上来说,神经网络可以越做越深、准确度也可以越来原创 2021-11-15 17:06:54 · 2859 阅读 · 0 评论 -
感知器算法及python实现
感知器算法及python实现通俗来讲,感知器算法可以完成如下这类线性可分的二分类分类任务。即找出一条超平面,将两类数据进行划分。在输入特征为二维的数据集中,即一条直线。理论依据感知机二类分类的线性分类模型,根据输入特征,输出类别 1 和 0。(也有为 +1、-1)下面搬运一个图片,需要注意将左下角的 x0x_0x0 改成 xnx_nxn。(懒就不做图了。。。)为方便优化,我们也采用激励函数输出为 +1、-1 的形式。整个算法留存即:对输入特征加权求和:∑i=0nwixi=z原创 2021-11-14 00:27:16 · 6313 阅读 · 3 评论 -
联合综述《Deep Learning》阅读笔记
Deep Learning 阅读笔记文章介绍作者:作者:Yann LeCun、Yoshua Bengio 、Geoffrey Hinton。三人被称为深度学习三巨头,共获2018年图灵奖。2015年为纪念人工智能提出60周年,《Nature》杂志专门开辟了一个“人工智能 + 机器人”专题 ,发表多篇相关论文,其中包括了Yann LeCun、Yoshua Bengio和Geoffrey Hinton首次合作的这篇综述文章“Deep Learning”文章被引用次数:24488 。访问次数:658k原创 2021-11-08 20:24:11 · 2713 阅读 · 0 评论 -
<机器学习中的梯度下降>-随机梯度下降(SGD)以及mini-batch \batch Gradient Descent
<机器学习中的梯度下降>-随机梯度下降(SGD)以及mini-batch \batch Gradient Descent梯度下降是机器学习中的基石,我们可以利用梯度下降算法,对损失函数(loss function)求最值,来得到一个对于系统模型最好的参数或者说权重(weight)。我们定义一个线性回归模型:f(x)=wTx+b f(x) = w^Tx+bf(x)=wTx+b其中 x=(x1;x2;...;xd)Tx = (x1; x2 ;...;xd)^Tx=(x1;x2;...;xd)T原创 2021-10-29 10:23:56 · 365 阅读 · 0 评论