试着搞了搞latex,写了点笔记
一、认识机器学习
机器学习定义
通过学习经验E(experience),在解决任务T(task)时达到更好的效果,其效果由P(performance measure)来衡量。例如,在系统学习自动帮助用户归类垃圾邮件的过程中,观察学习用户是如何归类邮件过程是E,归类收到的邮件是任务T,正确归类的比例是度量P。
有监督学习
有监督学习:通过学习正确的数据(训练集),预测其他情况下的输出结果
细分为回归问题和分类问题
回归问题是连续型的预测,例如对于不同面积大小,年份的房屋价格的预测
分类问题是离散型的预测,例如对于肿瘤的大小,患者的年龄情况,预测肿瘤是良性还是恶性
回归问题中,
m
m
m是训练数据的条数,
h
h
h是目标函数,
J
(
θ
0
,
θ
1
)
J(\theta_0,\theta_1)
J(θ0,θ1)是代价函数,目的是找到使得代价函数值最小的对应回归曲线的参数值。可以通过梯度下降策略来找到对应的参数,即
θ
0
\theta_0
θ0和
θ
1
\theta_1
θ1
θ
1
:
=
θ
1
−
α
∂
J
(
θ
1
,
θ
2
)
∂
θ
1
(1)
\theta_1:=\theta_1-\alpha\cfrac{\partial J(\theta_1,\theta_2)}{\partial \theta_1} \tag{1}
θ1:=θ1−α∂θ1∂J(θ1,θ2)(1)
无监督学习
无监督学习:主要是具有不同特征数据的聚类,没有标准,相似的自动聚集成一类。例如,通过用户的不同属性(年龄、性别、订阅频道等)的相似度,将某产品的用户自动聚集成集中类型,但是具体是是什么样的类型,没有人知道,这需要数据分析者根据聚类情况进行总结。
二、多元线性回归
以下首先列举变量名和函数
m m m:样本量,有训练集中有多少条样本
n n n:特征量,样本中有多少自变量,有多少中特征,即几个"元 ”
x j ( i ) x^{(i)}_j xj(i):第 i i i个训练样本中的第 j j j个特征
假设函数: h Θ ( X ) = Θ T X h_\Theta(X)=\Theta^TX hΘ(X)=ΘTX
成本函数: J ( Θ ) = 1 2 m ∑ i = 1 m ( h Θ ( x ( i ) ) − y ( i ) ) 2 J(\Theta)=\cfrac{1}{2m} \sum\limits_{i=1}^m(h_\Theta(x^{(i)})-y^{(i)})^2 J(Θ)=2m1i=1∑m(hΘ(x(i))−y(i))2
梯度下降: θ j : = θ j − α 1 m ∑ i = 1 m ( ( h Θ ( x ( i ) ) − y ( i ) ) x j ( i ) ) \theta_j:=\theta_j-\alpha \cfrac1m \sum\limits_{i=1}^m\left(\left(h_\Theta(x^{(i)})-y^{(i)}\right)x^{(i)}_j\right) θj:=θj−αm1i=1∑m((hΘ(x(i))−y(i))xj(i))