![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 61
logooooooogol
这个作者很懒,什么都没留下…
展开
-
python 统计相关库
引入库: from scipy import statsp=stats.poisson(10):以10为参数的泊松分布; y=p.rvs(size=1000):对泊松分布进行1000点采样; plt.hist(y,bins=30,range=(0,30),color=’g’,normed=True):画图,bin表示是多少个直方,range指的是横坐标范围; p.pmf(range(0,31原创 2017-11-23 23:25:25 · 1391 阅读 · 0 评论 -
回归-regression
回归:数据(xi,yi)(i=1,n) xi是数据,yi是标记label,yi是连续的数据进行建模是回归问题,若yi是离散的叫分类问题classification; 回归–>>regression来自高尔顿;线性回归,Logistic回归(二分类),Softmax回归(多分类);梯度下降,最大似然估计(MLE),最小二乘法;线性回归模型: hθ(x)=∑ni=0θi∗xi=θTxh_{\thet原创 2017-12-03 22:43:24 · 253 阅读 · 0 评论 -
梯度下降算法---Gradient Descent
1,随机初始化θ\theta; 2,沿着负梯度方向迭代,更新后的θ\theta使得目标函数更小; θ=θ−α∂J(θ)∂θ\theta=\theta-\alpha \frac{\partial J(\theta)}{\partial \theta} 其中α\alpha是学习率或步长; J(θ)=12∑mi=1(hθx(i)−y)2J(\theta)=\frac{1}{2}\sum_{i=1}原创 2017-12-04 23:39:57 · 619 阅读 · 0 评论 -
线性回归---公式推导
梯度下降公式推导:原创 2017-12-13 22:41:07 · 912 阅读 · 0 评论 -
Logistic regression -binary classification
梯度下降公式推导:原创 2017-12-13 22:24:25 · 355 阅读 · 0 评论 -
机器学习中的数据使用
原始数据===训练数据(得到参数θ\theta)+测试数据===训练数据+验证数据(用于选择超参数λ\lambda)+测试数据交叉验证:3折交叉验证; 选择λ\lambda的过程就是调参的过程;Xθ=y=>θ=((XTX)−1XTy)X\theta=y=>\theta=((X^{T}X)^{-1}X^{T}y) 如果X可逆:θ=X−1y\theta=X^{-1}y; 将X逆做推广,有Moore原创 2017-12-04 22:59:13 · 364 阅读 · 0 评论 -
素数求解
机器学习:Machine Learning,根据经验数据,通过算法获取模型的过程; 数据集:Data Set,作为机器学习的输入,是已有的经验数据的集合; 示例:instance,或称为样本sample,单个经验数据; 属性:attribute,也可称为特征feature,其张成的空间称为属性空间attribute space、特征空间feature space,或称为输入空间input sp原创 2017-12-03 21:17:39 · 190 阅读 · 0 评论 -
Machine Learning 基础概念
机器学习:Machine Learning,根据经验数据,通过算法获取模型的过程; 数据集:Data Set,作为机器学习的输入,是已有的经验数据的集合; 示例:instance,或称为样本sample,单个经验数据; 属性:attribute,也可称为特征feature,其张成的空间称为属性空间attribute space、特征空间feature space,或称为输入空间input sp原创 2017-11-23 19:52:20 · 657 阅读 · 0 评论 -
决策树和随机森林
决策树->随机森林; 随机森林的难点是如何建立决策树; 根节点ROOT:1,2,3。。。N个样本,给定规则(选取特征)给ROOT进行分类,假设分成C_1,C_2,如果是连续直接分类,如果是连续,那么给定阈值进行分类,递归形成的树,即是决策树,多个决策树即形成随机森林; 决策树:CART:classification and regression tree; 决策树:训练速度快,使用场景多;原创 2017-12-23 23:01:08 · 526 阅读 · 0 评论