自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 【神经网络】自组织特征映射网络(SOM)

自组织特征映射网络(SOM)Self-Organizing Feature Map Neural NetworksBP学习算法是一种典型的有监督学习算法,特点:每一个输入都有一个对应的理想输出自组织特征映射网络为无监督学习算法,只有样本,没有理想输出用途:聚类分析,分类SOM网络及其学习算法网络模型输入为nnn维:X=[x1,x2,...,xn]TX=[x_1,x_2,...,x_n]^TX=[x1​,x2​,...,xn​]T输出层有ppp个结点:Y=[y1,y2,.

2020-07-07 10:43:44 880

原创 【神经网络】多层前馈神经网络——BP神经网络

多层前馈神经网络–BP神经网络模型结构多层结构,L层(L≥2L\geq2L≥2)信息前向传播输入层不包含在总层数中,为第0层(L0L_0L0​)输入层的输入样本数为N0N_0N0​:x1(t),x2(t),...,xN0(t)x_1(t),x_2(t),...,x_{N_0}(t)x1​(t),x2​(t),...,xN0​​(t)每个输入都要分别输入给第一层的所有单元第一层L1L_1L1​的N1N_1N1​个单元各自又有输出,为:y11(t),y21(t),...,yN1

2020-07-06 17:21:08 2648

原创 【神经网络】自适应线性单元——Adaline

自适应线性单元–Adaptive Linear Units–Adaline模型结构在M-P模型的基础上s(k)=∑i=1nwixi(k)−θ=∑i=0nwixi(k)=WTX(k)\begin{aligned}s(k)&=\sum_{i=1}^nw_ix_i(k)-\theta\\&=\sum_{i=0}^nw_ix_i(k)\\&=W^TX(k)\end{aligned}s(k)​=i=1∑n​wi​xi​(k)−θ=i=0∑n​wi​xi​(k)=WTX(k)​y(k)

2020-07-05 15:26:06 1207

原创 【神经网络】感知机算法的收敛性证明

感知机算法的收敛性感知机学习算法是否收敛?定理:假设给定m个输入样本({X(k)},(k=1,2,...,m)\{X(k)\},(k=1,2,...,m){X(k)},(k=1,2,...,m))线性可分,那么感知机学习算法的权值就会在有限次的步骤中收敛到理想输出。定性解释:如果两类n维样本线性可分,那么一定存在一个n-1维的平面将其分开,n-1维超平面定义为:W(k)=[w0(k),w1(k),...wn(k)]:WTX(k)=0W(k)=[w_0(k),w_1(k),...w_n(k)

2020-07-02 10:28:44 1088

原创 【神经网络】前向型神经网络(Feedforward Neural Networks)

前向型神经网络(Feedforward Neural Networks)M-P模型n个输入,n个权值,θ\thetaθ为阈值S=∑i=1nwixi−θS=\sum_{i=1}^n{w_ix_i-\theta}S=∑i=1n​wi​xi​−θ,φ(⋅)\varphi(·)φ(⋅)为非线性函数输出为:y=φ(S)=φ(∑i=1nwixi−θ)y=\varphi(S)=\varphi(\sum_{i=1}^n{w_ix_i-\theta})y=φ(S)=φ(∑i=1n​wi​xi​−θ)w1w2..

2020-07-02 10:26:22 1513

原创 【神经网络】神经网络绪论

神经网络绪论神经网络的定义生物学神经元人的大脑中有101110^{11}1011 - 101210^{12}1012 个神经元每个神经元与103−10410^{3}-10^{4}103−104个神经元相连神经元的结构是具有可塑性的(可以变化)人工神经元生物神经元是人工神经元的物理基础人工神经元的结构:x1,x2,...,xnx_1,x_2,...,x_nx1​,x2​,...,xn​为输入,即与其他神经元接触得到的输入w1,w2,...,wnw_1,w_2

2020-07-02 10:23:00 315

原创 【机器学习】逻辑斯蒂回归/逻辑回归&Softmax回归

逻辑斯蒂回归/逻辑回归线性回归的任务是预测,如果拿来做分类是这个效果:z=wTx⇒y={0,z<00.5,z=01,z>0\bold z=\bold w^T\bold x\Rightarrow y=\begin{cases}0,&\bold z<0\\0.5,&\bold z=0\\1,&\bold z>0\end{cases}z=wTx⇒y...

2020-04-01 10:56:59 631

原创 【机器学习】回归问题之线性回归

线性回归一元线性回归一元线性回归即单变量线性回归有x,y两个变量,用一条直线来拟合他们之间的关系,每一个观测值(xn,yn)(x_n,y_n)(xn​,yn​)不一定都落在直线上,观测值到直线的距离既为回归误差:en=yn−(wxn+b)e_n=y_n-(wx_n+b)en​=yn​−(wxn​+b)拟合直线要求回归误差最小。均方和误差:∑n=1Nen2=∑n=1N(yn−w...

2020-03-24 19:55:01 386

原创 【迁移学习】深度域自适应网络DANN模型

DANNDomain-Adversarial Training of Neural Networks in Tensorflow域适配:目标域与源域的数据分布不同但任务相同下的迁移学习。模型建立DANN假设有两种数据分布:源域数据分布KaTeX parse error: Undefined control sequence: \cal at position 1: \̲c̲a̲l̲...

2020-03-22 15:57:03 13243 4

原创 【迁移学习】深度域自适应网络DANN在EEG睡眠质量检测上的应用

应用DANN进行睡眠质量检测目的:应用域对抗神经网络(DANN)分类实际生活场景中的睡眠脑电信号。模型:使用实验室安静控制环境下采集的脑电信号训练DANN模型,通过域自适应方法将知识迁移到真实环境中。实验结果:DANN在跨样本和跨场景任务中均能取到较高的正确率。方法数据预处理选择电极通道,重参考数据分频段δ(1−4Hz),θ(4−8Hz),α(8−13Hz)...

2020-03-22 15:49:12 2708

原创 【机器学习】贝叶斯模型(Bayesian Model)

最小错误率贝叶斯先验概率反映了我们的经验知识,是一种简单的判决准则只依靠先验概率并不靠谱,如:学校男女比例4:1,走过来的人是男生可能性大,但不能直接分类为男生需要更多的特征信息进一步进行分类似然概率特征的类条件概率在已知特征属于某个类的前提条件下的概率密度分布二类判决问题假设已知:两类的先验概率p(w1)p(w_1)p(w1​)和p(w2)p(w_...

2020-03-22 15:41:49 8535

原创 【机器学习】模型评估方法

评估方法k折交叉验证数据分为k部分,每次抽出k-1块作为训练集,剩余一部分为测试集,训练测试k次,取测试结果的平均值作为返回结果。调参算法的参数一般由人工设定,称为超参数。模型的参数由学习确定。调参过程先产生若干模型,基于某种评估方法进行选择。使用训练集训练模型,用验证集评估模型的性能,选定好最优的模型后用训练集+验证集重新训练最终模型->测试。性能度量性能...

2020-03-22 15:33:04 395

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除