- 博客(5)
- 资源 (1)
- 问答 (2)
- 收藏
- 关注
原创 机器学习-梯度下降法的详细推导与代码实现
计算对于线性回归,梯度下降法的目标就是找到一个足够好的向量 θ\thetaθ,使代价函数J(θ)=∑i=1m(y^−yi)2J(\theta) = \sum_{i=1}^{m}(\hat{y}-y_{i})^{2}J(θ)=∑i=1m(y^−yi)2 取得最小值。线性回归的代价函数是关于θ\thetaθ的多元函数。如下:J(θ)=∑i=1m(y^−yi)2=∑i=1m(θx(i)−yi)...
2019-09-28 14:49:50 741
原创 机器学习-线性回归
线性回归对于每一个样本数据 x=(x1,x2,...,xn)x=(x_{1},x_{2},...,x_{n})x=(x1,x2,...,xn),希望拟合出一个模型 f(x)。当有新的数据输入时,可以给出误差最小的估计值。假设函数如下:y=f(x)=θ0+θ1x1+θ2x2+...+θnxny = f(x)=\theta_{0}+\theta_{1}x_{1}+\theta_{2}x_{...
2019-09-28 14:48:18 224
原创 机器学习-朴素贝叶斯算法
贝叶斯定理w是由待测数据的所有属性组成的向量。p(c|x)表示,在数据为x时,属于c类的概率。p(c∣w)=p(w∣c)p(c)p(w)p(c|w)=\frac{p(w|c)p(c)}{p(w)}p(c∣w)=p(w)p(w∣c)p(c)如果数据的目标变量最后有两个结果,则需要分别计算p(c1|x)和p(c2|x)取最大的值为分类的结果p(c1∣w)=p(w∣c1)p(c1)p(w)...
2019-09-20 10:23:27 199 1
原创 机器学习-决策树算法
信息增益香农熵: 指混乱程度,越混乱,值越大信息增益(information gain): 在划分数据集前后信息发生的变化称为信息增益(香农熵的差)基尼不纯度也可度量集合的无序程度香农熵的计算公式如下:H=−∑i=1np(xi)log2p(xi)H=-\sum_{i=1}^{n}p(x_{i})log_{2}p(x_{i})H=−i=1∑np(xi)log2p(xi)...
2019-09-12 22:06:58 214
原创 numpy重要知识点总结
数据类型dtype用于自定义类型。i1,i2,i4,i8表示int8,int16,int32,int64。S20表示特定长度的字符串dtype([(‘键’,‘值类型’),(‘键’,‘值类型’),…])import numpy as np# 定义类型dt = np.dtype([("age","i4")])Student = np.dtype([("name","S10"),("a...
2019-09-10 18:59:17 788
commons-fileupload-1.2.1.jar和commons-io-1.3.2.jar程序文件
2017-09-13
微信上墙的原理是什么?
2016-12-09
如何在本地的git仓库下建立新的仓库
2016-10-15
TA创建的收藏夹 TA关注的收藏夹
TA关注的人