vendetta_gg
码龄9年
关注
提问 私信
  • 博客:126,051
    126,051
    总访问量
  • 32
    原创
  • 529,215
    排名
  • 30
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:陕西省
  • 加入CSDN时间: 2015-10-22
博客简介:

vendetta_gg的博客

查看详细资料
个人成就
  • 获得86次点赞
  • 内容获得19次评论
  • 获得717次收藏
创作历程
  • 1篇
    2021年
  • 31篇
    2020年
成就勋章
兴趣领域 设置
  • 人工智能
    pytorch集成学习分类回归
创作活动更多

如何做好一份技术文档?

无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

182人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

汉诺塔递归算法

汉诺塔递归算法1.什么是递归算法在计算机科学中是指一种通过重复将问题分解为同类的子问题而解决问题的方法。2.汉诺塔递归算法大梵天创造世界的时候做了三根金刚石柱子,在一根柱子上从下往上按照大小顺序摞着64片黄金圆盘。大梵天命令婆罗门把圆盘按照大小顺序重新摆放在另一根柱子上,在小圆盘上不能放大圆盘,在三根柱子之间一次只能移动一个圆盘。64根柱子移动完毕之日,就是世界毁灭之时。也就是说将第一个柱子上的圆盘借助第二个柱子移动到第三个柱子上,一次只能一定一个圆盘,且小的始终不能放在大的柱子上。究竟需要多少次才
原创
发布博客 2021.10.25 ·
1634 阅读 ·
1 点赞 ·
1 评论 ·
4 收藏

梯度下降法确定步长

梯度下降法确定步长BY:YANG LIU采用Line search确定步长,Line search的本质目的其实也是为了保证函数值下降(或称作不增)。基本思想就是每次试一个步长,如果用该步长走的话,看函数值会不会比当前点下降一定的程度,如果没有,就按比例减小步长,再试,直到满足条件(根据泰勒展开式我们知道步长足够小时总会满足下降条件)。所以line search实际上是计算量比较大的。可能会出现之字形下降:...
原创
发布博客 2020.11.02 ·
2961 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

梯度下降法简述

梯度下降法简述BY:YANG LIU1.什么是梯度下降?梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。方向导数:梯度:2.求解过程梯度下降法的计算过程就是沿梯度下降的方向求解极小值(也可以沿梯度上升方向求解极大值)。3.简
原创
发布博客 2020.11.02 ·
976 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

BP神经网络简述

BP神经网络简述BY:YANG LIU1.什么是BP神经网络?BP(back propagation)神经网络是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络。2.BP神经网络的基本原理?人工神经网络无需事先确定输入输出之间映射关系的数学方程,仅通过自身的训练,学习某种规则,在给定输入值时得到最接近期望输出值的结果。基本思想是梯度下降法,利用梯度搜索技术,以期使网络的实际输出值和期望输出值的误差均
原创
发布博客 2020.11.02 ·
2803 阅读 ·
1 点赞 ·
1 评论 ·
5 收藏

ELM分类法Python实现

ELM分类法Python实现By:YANG LIUimport numpy as npimport matplotlib.pyplot as pltdef sigmoid(a,b,x):return 1.0/(1+np.exp(-1.0*(x.dot(a)+b)))def ELM_prototype(X,T,C,n,L):a=np.random.normal(0,1,(n,L))aa=ab=np.random.normal(0,1,L)bb=bH=sigmoid(a,b,X)HH=H
原创
发布博客 2020.09.28 ·
1869 阅读 ·
0 点赞 ·
0 评论 ·
9 收藏

极限学习机ELM原理的简介

极限学习机ELM原理的简介BY:YANG LIU1.极限学习机的起源(ELM-extreme learning machine)在2004年由南洋理工大学的黄广斌提出,并发表于当年的IEEE国际交互会议(IEEE International Joint Conference)中,目的是为了对反向传播算法(Backward Propagation, BP)进行改进以提升学习效率,并简化学习参数的设定。2.什么是极限学习机是基于前馈神经元网络(feedforward neuron network)的机
原创
发布博客 2020.09.21 ·
3475 阅读 ·
3 点赞 ·
0 评论 ·
29 收藏

极限学习机Python的代码实现

极限学习机Python的代码实现BY:YANG LIUimport numpy as np——载入numpy库import matplotlib.pyplot as plt——载入画图库def sigmoid(a,b,x):——定义sigmoid激活函数return 1.0/(1+np.exp(-1.0(x.dot(a)+b)))——返回1/(1+e^(-ax+b)),其中a为输入层到隐含层的权重,b是隐含层的偏置def ELM_prototype(X,T,C,n,L):——定义极限学习机函数,
原创
发布博客 2020.09.21 ·
2593 阅读 ·
2 点赞 ·
1 评论 ·
9 收藏

最小二乘法Python的实现

最小二乘法Python的实现BY:Yang Liu代码和解析:import numpy as np ——载入numpy库,相当于增加矩阵数组容器import scipy as sp ——载入scipy库,为科学计算算法库import matplotlib.pyplot as plt ——载入matplotlib库,增加绘图库,若再载入Pandas库(相当于表格库),此时Python可实现MATLAB的功能from scipy.optimize import leastsq ——从scipy中调
原创
发布博客 2020.09.13 ·
765 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

最小二乘法简述

最小二乘法简述BY:YANG LIU1.最小二乘法的作用(1)用于拟合曲线;(2)用于求解未知量,使得误差值最小。2.最小二乘法成立的前提条件(1)假设系统中无系统误差,误差均为偶然误差。(2)假设误差符合正太分布,即整个系统最后的误差均值为零。3.理论解法测量系统中每个点的测量实际值和曲线拟合值的差的平方和的总和最小。4.二维例子假设身高体重,X表示身高,Y表示体重。已知有四个值(1,6)、(2,5)、(3,7)、(4,10)问(5,?)。则最小二乘法求解:求出已知四个点所构
原创
发布博客 2020.09.10 ·
6376 阅读 ·
3 点赞 ·
0 评论 ·
11 收藏

ELMAN神经网络

ELMAN神经网络By:Yang Liu1.什么是ELMAN神经网络Elman神经网络是一种典型的局部回归网络( global feed forward local recurrent)。Elman网络可以看作是一个具有局部记忆单元和局部反馈连接的递归神经网络。Elman网络具有与多层前向网络相似的多层结构。是在BP网络基本结构的基础上,在隐含层增加一个承接层,作为一步延时算子,达到记忆的目的,从而使系统具有适应时变特性的能力,增强了网络的全局稳定性,它比前馈型神经网络具有更强的计算能力,还可以用来解
原创
发布博客 2020.07.08 ·
17991 阅读 ·
10 点赞 ·
1 评论 ·
109 收藏

BP算法简述

BP算法简述By:Yang Liu1.什么是BP算法BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成。由于多层前馈网络的训练经常采用误差反向传播算法,人们也常把将多层前馈网络直接称为BP网络。正向传播时,输入样本从输入层进入网络,经隐层逐层传递至输出层,如果输出层的实际输出与期望输出不同,则转至误差反向传播;如果输出层的实际输出与期望输出相同,结束学习算法。反向传播时,将输出误差(期望输出与实际输出之差)按原通路反传计算,通过隐层反向,直至输入层,在反传过程中将误差分摊给各层的各个
原创
发布博客 2020.07.08 ·
7041 阅读 ·
7 点赞 ·
0 评论 ·
71 收藏

神经元网络基础概念简述

神经元网络基础概念简述By:Yang Liu1.多层向前神经网络(Multilayer Feed-Forward Neural Network)一个神经元网络由输入层(input layer),隐藏层(Hidden layer),输出层(output layer)组成,上图为两层神经元,输入层不计算在层数内。特点:1、每层由单元(units)组成2、输入的X代表的不是4个样本,代表的是一个样本的4个特征,若有4个样本上图要进行4次。3、隐藏层的数量是任意的,输入和输出都只有一层。4、一层中
原创
发布博客 2020.07.04 ·
2037 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

GRU门控循环单元简述

GRU门控循环单元简述By:Yang Liu1.什么是门控循环单元GRU在循环神经⽹络中的梯度计算⽅法中,我们发现,当时间步数较⼤或者时间步较小时,循环神经⽹络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但⽆法解决梯度衰减的问题。通常由于这个原因,循环神经⽹络在实际中较难捕捉时间序列中时间步距离较⼤的依赖关系。GRU(Gate Recurrent Unit)是循环神经网络(Recurrent Neural Network, RNN)的一种。和LSTM(Long-Short Term M
原创
发布博客 2020.07.02 ·
2084 阅读 ·
1 点赞 ·
0 评论 ·
12 收藏

LSTM长短期记忆人工神经网络简述

LSTM长短期记忆人工神经网络简述By:Yang Liu1.什么是LSTM长短期记忆网络(LSTM,Long Short-Term Memory)是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,属于时间递归神经网络(RNN)中的一种。LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件。2.LSTM的结构上图被称为memory block(记忆块),主要包含了三个门(forget gate、input gate、output gate)与
原创
发布博客 2020.07.02 ·
3346 阅读 ·
2 点赞 ·
0 评论 ·
6 收藏

RNN循环神经网络简述

RNN循环神经网络简述By:Yang Liu1.什么是RNN循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。2.RNN的结构经典结构循环结构:按时间线展开如下图:Xt:表示t时刻的输入,ot:表示t时刻的输出,St:表示t时刻的记忆用公式可表示为:3.RNN的作用(
原创
发布博客 2020.07.02 ·
839 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

欧氏距离和马氏距离简介

欧氏距离和马氏距离简介By:Yang Liu1.欧氏距离在数学中,欧几里得距离或欧几里得度量是欧几里得空间中两点间“普通”(即直线)距离。欧几里得度量(euclidean metric)(也称欧氏距离)是一个通常采用的距离定义,指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。在二维和三维空间中的欧氏距离就是两点之间的实际距离。计算公式:D(X,Y)=(X1−Y1)2+(X2−Y2)2...+(Xn−1−Yn−1)2+(Xn−Yn)2D(X,Y) = \sqrt {{{(
原创
发布博客 2020.06.19 ·
6187 阅读 ·
1 点赞 ·
0 评论 ·
15 收藏

基于最大相关最小冗余的特征选择方法MRMR

基于最大相关最小冗余的特征选择方法MRMRBy:Yang Liu1.什么是特征选择经典的特征选择定义为:依据某个准则,从N个特征集合中选出M个特征的子集(M=<N),以达到降低特征空间维数的目的。特征选择包括特征提取和特征选择两个方面。特征提取是指将原有的特征空间进行某种形式的变换,以得到新的特征。主成分分析PCA是这类方法中最著名的算法。特征选择是指从原始特征集中选择使某种评估标准最优的特征子集,使得任务如分类、回归等达到和特征选择前近似甚至更好的效果。特征选择的主要思想就是从输入的特征
原创
发布博客 2020.06.15 ·
6215 阅读 ·
5 点赞 ·
2 评论 ·
67 收藏

模糊C均值聚类简述

模糊C均值聚类简述By:Yang Liu1.什么是模糊C均值聚类模糊c-均值聚类算法 fuzzy c-means algorithm (FCMA)或称( FCM)。通过优化目标函数得到每个样本点对所有类中心的隶属度,从而决定样本点的类属以达到自动对样本数据进行分类的目的。无监督机器学习的主要技术之一。2.模糊C均值聚类涉及的数学方法——拉格朗日乘数法设给定二元函数z=ƒ(x,y)和附加条件φ(x,y)=0,为寻找z=ƒ(x,y)在附加条件下的极值点,先做拉格朗日函数 Fx,y,λ=f(x,y)+λ
原创
发布博客 2020.06.10 ·
7290 阅读 ·
5 点赞 ·
0 评论 ·
54 收藏

层次聚类在MATLAB中实现

层次聚类在MATLAB中实现By:Yang Liu1.第一种方法(1)输入要聚类的数据。(2)计算各个样本之间的欧氏距离。(3)把距离化成矩阵,矩阵中的元素Xij{X_{ij}}Xij​表示第i个样本和第j个样本的距离。(4)生成聚类数矩阵,前两列表示是第几簇,最后一列表示两个簇的距离,原样本一共5个元素,所以初始有5簇,则当完成一次聚类后,新得到的簇,就是第六簇(此例中第六簇就是第四簇和第五簇合并产生),以此类推。(5)生成可视化树状图(6)按需求划分,例中为划分三簇,T为各个
原创
发布博客 2020.06.09 ·
7290 阅读 ·
15 点赞 ·
0 评论 ·
93 收藏

层次聚类介绍

层次聚类介绍1.什么是层次聚类层次聚类(Hierarchical clustering)是聚类算法的一种,通过计算不同类别数据点间的相似度来创建一棵有层次的嵌套聚类树。在聚类树中,不同类别的原始数据点是树的最低层,树的顶层是一个聚类的根节点。属于无监督学习。属于贪心算法(又称贪婪算法):在对问题求解时,总是做出在当前看来是最好的选择。也就是说,不从整体最优上加以考虑,算法得到的是在某种意义上的局部最优解。层次聚类可以弥补Kmeans聚类的不足,层次聚类不需要提前确定K值,而且层次聚类可以处理不规
原创
发布博客 2020.06.08 ·
18091 阅读 ·
6 点赞 ·
0 评论 ·
40 收藏
加载更多