利用sklearn实现感知机(perceptron)算法

一、感知机(perceptron)

  • 感知机简介:

感知机(perceptron)是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面。感知机是一种线性分类模型。

感知机实际上表示为输入空间到输出空间的映射函数,如下所示:

           f(x)=sign(w\bullet x+b)

其中,wb称为感知机的模型参数,w\subset R^{n}叫做权值(weight)或权值向量(weight vector),b\subset R叫做偏置(bias),w\bullet xwx的内积,sign是符号函数,其定义形式如下:

            sign=\left\{\begin{aligned}+1, x\geq 0 \\-1,x\leq 0 \\\end{aligned}\right.

虽然有了感知机的定义形式,也知道了它的作用,但这样看起来仍然不直观,现在我用sklearn库来做一个二维空间的感知机来演示一下感知机的实际效果。

    首先,使用sklearn中的make_classification来生成一些用来分类的样本。p er

from sklearn.datasets import make_classification

x,y = make_classification(n_samples=1000, n_features=2,n_redundant=0,n_informative=1,n_clusters_per_class=1)

#n_samples:生成样本的数量

#n_features=2:生成样本的特征数,特征数=n_informative() + n_redundant + n_repeated

#n_informative:多信息特征的个数

#n_redundant:冗余信息,informative特征的随机线性组合

#n_clusters_per_class :某一个类别是由几个cluster构成的 

       make_classification默认生成二分类的样本,上面代码中,x代表了生成的样本空间(特征空间),y代表了生成样本的类别,使用1和0分别表示正例和反例

y=[0 0 0 1 0 1 1 1... 1 0 0 1 1 0]

然后将生成的样本分为训练数据和测试数据,并将其中的正例和反例也分开:

#训练数据和测试数据
x_data_train = x[:800,:]
x_data_test = x[800:,:]
y_data_train = y[:800]
y_data_test = y[800:]

#正例和反例
positive_x1 = [x[i,0] for i in range(1000) if y[i] == 1]
positive_x2 = [x[i,1] for i in range(1000) if y[i] == 1]
negetive_x1 = [x[i,0] for i in range(1000) if y[i] == 0]
negetive_x2 = [x[i,1] for i in range(1000) if y[i] == 0]

接下来,就开始真正的分类工作,首先定义一个感知机(percetpron):

from sklearn.linear_model import Perceptron
#定义感知机
clf = Perceptron(fit_intercept=False,n_iter=30,shuffle=False)
#使用训练数据进行训练
clf.fit(x_data_train,y_data_train)
#得到训练结果,权重矩阵
print(clf.coef_)
#输出为:[[-0.38478876,4.41537463]]

#超平面的截距,此处输出为:[0.]
print(clf.intercept_)

      此时,我们已经得到了训练出的感知机模型参数,那么这个感知机的分类能力怎么样呢?我们利用测试数据对其进行验证。

#利用测试数据进行验证
acc = clf.score(x_data_test,y_data_test)
print(acc)
#得到的输出结果为0.995,这个结果还不错吧。

最后,我们将结果用图形显示出来,直观地看一下感知机的结果:

from matplotlib import pyplot as plt
#画出正例和反例的散点图
plt.scatter(positive_x1,positive_x2,c='red')
plt.scatter(negetive_x1,negetive_2,c='blue')
#画出超平面(在本例中即是一条直线)
line_x = np.arange(-4,4)
line_y = line_x * (-clf.coef_[0][0] / clf.coef_[0][1]) - clf.intercept_
plt.plot(line_x,line_y)
plt.show()

得到的图如下所示:



sklearn中的多层感知器(Multilayer Perceptron,MLP)是一种基于神经网络的分类器模型。它可以用于解决多类别分类问题。在sklearn库中,多层感知器被实现为`sklearn.neural_network.MLPClassifier`类。 MLP模型由多个神经元组成的输入层、隐藏层和输出层构成。每个神经元都与前一层的所有神经元相连接,并且带有权重。这些权重通过训练过程来学习,以使模型能够准确地预测输入数据的类别。 要使用sklearn的多层感知器,首先需要创建一个MLPClassifier对象,并设置相关参数,例如隐藏层的数量、每个隐藏层中神经元的数量和激活函数等。然后,可以使用`fit`方法将训练数据和相应的标签传递给模型进行训练。最后,可以使用`predict`方法对新的未知数据进行分类预测。 下面是一个使用sklearn的多层感知器进行分类的示例代码: ```python from sklearn.neural_network import MLPClassifier from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # 加载数据集 data = load_iris() X, y = data.data, data.target # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 创建多层感知器模型 model = MLPClassifier(hidden_layer_sizes=(100,), activation='relu', solver='adam', random_state=42) # 训练模型 model.fit(X_train, y_train) # 预测测试集 y_pred = model.predict(X_test) # 计算准确率 accuracy = accuracy_score(y_test, y_pred) print("Accuracy:", accuracy) ``` 以上示例代码中,我们使用鸢尾花数据集(load_iris)进行训练和测试,创建了一个具有一个包含100个神经元的隐藏层的多层感知器模型。然后,使用训练数据对模型进行训练,并使用测试数据进行预测,最后计算出了模型的准确率。 希望这能帮到你!如有其他问题,请随时提问。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值