深度学习笔记(一)——感知机模型(Perceptron Model)

4 篇文章 10 订阅
3 篇文章 0 订阅

零、引言

         感知机,也叫单层神经网络,是最基础的神经网络模型结构。

        神经网络模型由生物神经中得到启发。在生物神经元细胞中,神经突触接收到信号,经过接收并处理信号后判断信号的信息强弱,来做出不同神经电位变化反应。受此启发,科研人员设计出基础的神经网络模型结构,神经元模型(Neuron Model)。

一、神经元模型

        下图为一个最简单的“M-P神经元结构”,该模型1943年提出,并一直沿用至今:

        从模型示意图看,对于一个单一的神经元模型,其中\{x_1, x_2,...,x_i,...,x_n\}为该模型的输入数据;\{\omega_1,\omega_2,...,\omega_i,...,\omega_n \}为神经元模型计算参数,与输入数据维度一一对应,用于反应输入数据各维度的权重;\theta表示神经元输出阈值,通常用于控制神经元是否输出结果或修正输出结果;y为神经元模型的输出结果,计算方式如下公式:

y=f(\sum_{i=1}^{n}\omega_ix_i-\theta)

其中,函数f(\cdot)用于将函数值映射至区间[0,1](主要)或[-1,1](部分),f(\cdot)通常称为激活函数(activation function)。常用的激活函数包括Sigmoid(x)=\frac{1}{1+e^{-x}}Tanh(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}等。常用的激活函数及性质会在后续单独总结。

        通常来说,多个神经元模型按次序排列即是一个简单的神经网络模型。

二、感知机

1. 单层感知机的定义

        周志华老师的西瓜书上对于感知机的定义为:“感知机由两层神经元组成,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元。也称为阈值逻辑单元(threshold logic unit)”。以下为一个单层感知机模型示意图

其中,其中\{x_1, x_2,...,x_i,...,x_n\}为输入层接收到的的输入数据;\{\omega_1,\omega_2,...,\omega_i,...,\omega_n \}为输出层M-P神经元模型计算参数。

        当输入层接收到的输入数据维度为2时,通过不同的权重及阈值配比感知机可以实现逻辑的“与”、“或”、“非”运算。经过训练数据集的训练,感知机可以自动地学习到阈值及权重。

2. 单层感知机的学习

        一般地,给定数据集,感知机的权重\{\omega_1,\omega_2,...,\omega_i,...,\omega_n \}及阈值\theta可以通过学习得到。由

 输出计算函数y=f(\sum_{i=1}^{n}\omega_ix_i-\theta),我们将阈值\theta的看做原始输入数据维度增加一维,该为输入值恒为-1,增加对应需要学习的权重为\omega_{n+1}(即,\theta),如此即可将权重和阈值统一到了权重的学习。为了方便理解,给出一个例子,假设原本输入数据为\textbf{x}=\{x_1,x_2,...x_n\}, 实际的输入数据改为{\textbf{x}}'=\{x_1,x_2,...x_n, -1\}

        感知机的参数学习过程如下:

\omega_i=\leftarrow {\omega_i}+\Delta {\omega_i}

\Delta {\omega_i}=\eta (y-\hat{y})x_i

其中,i \in [1,n+1]\eta \in [0,1],称为学习率,用于调控模型的学习进度;y为输入数据对应的真实值;\hat{y}为当前学习步骤中感知机的输出结果。若模型输出结果同真实值相同,则权重不发生变化;当模型预测值同真实值差距越大,则权重调整的幅度越大。

3. 单层感知机的不足

        单层感知机能够经过简单地 学习实现输入值得“与”、“或”和“非”运算,但是单层感知机只能实现线性可分的数据学习(存在一个超平面使得数据分开),当线性不可分时单层感知机便无法处理。如“异或”操作,单层感知机即无法实现。

        为了能够使得感知机的适应范围更广,可以将多个感知机进行连接,构成多层感知机模型来适应更复杂的任务。多层感知机模型也被称作人工神经网络(Artificial Neuron Network,ANN),将在下一篇进行介绍。

注:该部分学习主要来自周志华老师的西瓜书。部分理解存在问题欢迎指出。

        

 

  • 7
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
感知机是二分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取 +1 和 -1 二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型感知机学习算法是基于随机梯度下降法的。具体地,首先任意选取一个超平面,然后用梯度下降法不断地极小化目标函数,找出最优超平面。 以下是感知机算法的C++类实现及案例代码: ```c++ #include <iostream> #include <vector> #include <random> using namespace std; class Perceptron { public: Perceptron(int feature_num) : w(feature_num), b(0) {} void train(const vector<vector<double>>& X, const vector<double>& y, int max_iter = 100) { int n_samples = X.size(); int n_features = X[0].size(); mt19937 rng(0); uniform_int_distribution<int> dist(0, n_samples - 1); for (int iter = 0; iter < max_iter; iter++) { int i = dist(rng); double wx = 0; for (int j = 0; j < n_features; j++) { wx += X[i][j] * w[j]; } double yi = y[i]; if (yi * (wx + b) <= 0) { for (int j = 0; j < n_features; j++) { w[j] += yi * X[i][j]; } b += yi; } } } double predict(const vector<double>& x) { double wx = 0; int n_features = x.size(); for (int i = 0; i < n_features; i++) { wx += x[i] * w[i]; } return wx + b > 0 ? 1 : -1; } void print_weights() const { cout << "w = ["; for (double wi : w) { cout << wi << ", "; } cout << "], b = " << b << endl; } private: vector<double> w; double b; }; int main() { vector<vector<double>> X{ {3, 3}, {4, 3}, {1, 1} }; vector<double> y{1, 1, -1}; Perceptron model(X[0].size()); model.train(X, y); model.print_weights(); cout << "predict([3, 4]) = " << model.predict({3, 4}) << endl; return 0; } ``` 在上述代码中,Perceptron类代表感知机模型。train函数接受训练数据X和y,以及最大迭代次数max_iter,默认为100。predict函数接受一个样本特征向量x,返回其预测的类别标签。print_weights函数打印训练后得到的权重和偏置项。 本例中,使用学习率为1的随机梯度下降法进行模型训练。训练数据X是一个3x2的矩阵,y是一个包含3个元素的向量,表示3个样本的类别标签。模型训练完毕后,使用predict函数对特定样本进行预测。 以上是感知机算法的C++类实现及案例代码,希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值