机器学习
气泡水、
这个作者很懒,什么都没留下…
展开
-
Logistic回归推导(三)--牛顿法及纯python实现
###一、原创 2020-10-21 23:05:56 · 3269 阅读 · 3 评论 -
Logistic回归推导(二)--梯度上升法及纯python实现
1、假设函数假设函数为:P(y∣x;θ)=[hθ(x)]y[1−hθ(x)](1−y)=(11+e−θTx)y(1−11+e−θTx)1−y\begin{aligned}P(y|x;\theta)&=[h_{\theta}(x)]^{y}[1-h_{\theta}(x)]^{(1-y)}\\&=(\frac{1}{1+e^{-\theta^{T}x}})^{y}(1-\frac{1}{1+e^{-\theta^{T}x}})^{1-y}\end{aligned}P(y∣x;θ)原创 2020-10-10 15:13:10 · 624 阅读 · 2 评论 -
Logistic回归推导(一)--模型介绍
一、Logistic回归原创 2020-10-08 20:57:57 · 2287 阅读 · 0 评论 -
线性回归推导(三)--梯度下降法及纯python实现
1、梯度下降法假设函数:hθ(x)=θ0+θ1x1+θ2x2+...+θnxn=∑i=0nθixi(x0=1)h_{\theta}(x)=\theta_{0}+\theta_{1}x_{1}+\theta_{2}x_{2}+...+\theta_{n}x_{n}=\sum_{i=0}^{n}\theta_{i}x_{i}\quad (x_{0}=1)hθ(x)=θ0+θ1x1+θ2x2+...+θnxn=i=0∑nθixi(x0=1)代价函数:J(θ)=12∑i=1m[h原创 2020-09-25 18:09:11 · 857 阅读 · 0 评论 -
线性回归推导(二)--求闭式解法及纯python实现
1、假设函数矩阵表示定义样本(m个样本,每个样本有n个特征)X=[(x(1))T(x(2))T...(x(m))T],其中x(m)=[1xm1xm2...xmn]X=\left[\begin{array}{c}(x^{(1)})^{T}\\(x^{(2)})^{T}\\...\\(x^{(m)})^{T}\\\end{array}\right],其中x^{(m)}=\left[\begin{array}{c}1\\x_{m1}\\x_{m2}\\...\\x_{mn}\\原创 2020-09-24 00:17:27 · 4308 阅读 · 1 评论 -
线性回归推导(一)--模型介绍
一、线性回归线性回归(linear regression)是回归问题中的一种,其假设目标值与特征之间线性相关,即满足一个多元一次方程。线性回归的目的是找到一条直线或者一个平面或者更高维的超平面,使得预测值与真实值之间的误差最小化。二、简单线性回归样本只有一个特征x,目标值为y;假设h(x)=θ0+θ1xh(x)=\theta_{0}+\theta_{1}xh(x)=θ0+θ1x则参数为θ0、θ1\theta_{0}、\theta_{1}θ0、θ1代价函数为J(θ0,θ1)原创 2020-09-22 21:21:52 · 339 阅读 · 0 评论 -
机器学习笔记--介绍
一、机器学习定义1、Arthur Samuel (1959) 将机器学习定义为:“Field of study that gives computers the ability to learn without being explicitly programmed”在不针对计算机编程的情况下,赋予计算机学习能力的一个领域。2、Tom M. Mitchell (1997) 给出了一个更广泛、正式的定义:“A computer program is said to learn from experi原创 2020-09-22 16:39:14 · 399 阅读 · 0 评论