机器学习-周志华 学习笔记3

本文介绍了线性模型的基本形式及其在回归任务中的应用,包括一元和多元线性回归,并探讨了最小二乘法用于参数估计的过程。此外还讨论了线性模型的变化形式,如对数线性回归和广义线性模型,以及对数几率回归在分类任务中的应用。
摘要由CSDN通过智能技术生成

第3章 线性模型

3.1基本形式

给定由d个属性描述的示例x=(x1;x2;…;xd),其中xi是x在第i个属性上的取值,线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,即

       f(x)=w1*x1+w2*x2+…+wd*xd+b

一般用向量形式写成

       f(x)=wTx+b

其中w=(w1;w2;…;wd)。W和b学得以后,模型就得以确定。

线性模型形式简单,易于建模,有很好的可解释性(comprehensibility)。

3.2线性回归

       给定数据集合D={(x1,y1),(x2,y2),…,(xm,ym)}其中xi=(xi1,;xi2;…;xid),yi∈R,线性回归(linear regression)的目的就是试图找到一个线性模型以尽可能准确地预测实值输出,即试图学得:


其中重要点在于w和b的确定。我们利用均方误差,使均方误差最小化即:


       均方误差对应了欧几里得距离简称“欧氏距离”(Euclidean distance)。基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小。

       线性回归模型的最小二乘“参数估计”(parameter estimation)为求解w和b使

最小化的过程。可以将 分别对w和b求导,得到

然后令上二式为0可得到w和b最优解的闭式解

其中 为x的均值。

当样本由d个属性描述,我们试图学得

这称为“多元线性回归”(multivariate linear regression)。我们同样可以用最小二乘法对w和b进行估计。具体过程这里省略。

 

线性模型虽然简单,但是有丰富的变化。对于样例(x,y)我们希望线性模型的预测值逼近真实标记y,即


但是有的时候这种做法并不方便使用,我们令模型的预测值逼近y的衍生物,例如:假设我们认为示例所对应的输出标记是在指数尺度上变化,那么可以将线性模型设定为:

这就是“对数线性回归”。

更一般的可以考虑单调可微函数g(.),令

得到的模型称为“广义线性模型”(generalized linear model),其中函数g(.)称为“联系函数”(link function)。

 

3.3对数几率回归

      分类任务中我们需要找一个单调可微函数将任务分类的真是标记y与线性回归模型的预测值联系起来。

       以二分类任务为例,输出标记为y∈{0,1},线性回归模型产生的预测值 是实值,于是,将实值z转换成0/1值,最理想的是“单位阶跃函数”(unit-step function)

预测过程如图3.2

但是单位阶跃函数不连续,因此不能直接用作式3.15中的 。所以我们找了一个单位阶跃函数的替换函数,并希望它单调可微。对数几率函数(logisticfunction):

从图3.2可看出,对数几率函数是一种“Sigmoid函数”,它将z值转化成一个接近0或1的y值,并且其输出值在z=0附近变化很抖。然后经过数学变换求取最优w和b。具体流程我也很模糊,以后有机会再描述。


很高兴听到你正在学习机器学习》这本经典的教材,下面我为你提供第十四章概率图模型的Python实现学习笔记。 ## 1. 朴素贝叶斯分类器 ### 1.1 数据准备 在本章中,我们将使用著名的鸢尾花数据集进行分类。首先,我们可以从sklearn库中导入该数据集。 ```python from sklearn.datasets import load_iris iris = load_iris() X = iris.data y = iris.target ``` ### 1.2 朴素贝叶斯分类器实现 接下来,我们可以使用sklearn库中的朴素贝叶斯分类器进行分类,具体实现如下: ```python from sklearn.naive_bayes import GaussianNB from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) gnb = GaussianNB() gnb.fit(X_train, y_train) y_pred = gnb.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print('Accuracy:', accuracy) ``` ### 1.3 结果分析 运行上述代码后,我们可以得到该模型在测试集上的准确率,结果如下所示: ``` Accuracy: 1.0 ``` 可以看出,该模型在鸢尾花数据集上表现出色,准确率达到了100%。 ## 2. 隐马尔可夫模型 ### 2.1 数据准备 在本节中,我们将使用一个简单的例子来介绍隐马尔可夫模型的实现。假设我们有一个长度为100的序列,每个位置上的值都是0或1,其中0和1出现的概率分别为0.6和0.4。我们可以使用numpy库生成这个序列。 ```python import numpy as np np.random.seed(42) sequence = np.random.choice([0, 1], size=100, p=[0.6, 0.4]) ``` ### 2.2 隐马尔可夫模型实现 接下来,我们可以使用hmmlearn库中的隐马尔可夫模型进行序列建模,具体实现如下: ```python from hmmlearn import hmm model = hmm.MultinomialHMM(n_components=2) model.fit(sequence.reshape(-1, 1)) logprob, states = model.decode(sequence.reshape(-1, 1)) print('Sequence:', sequence) print('States:', states) ``` ### 2.3 结果分析 运行上述代码后,我们可以得到该模型对序列的建模结果,结果如下所示: ``` Sequence: [0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0] States: [1 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1] ``` 可以看出,模型对序列进行了建模,并输出了每个位置上的状态,其中0表示“假”,1表示“真”。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值