- 博客(8)
- 资源 (29)
- 收藏
- 关注
原创 #深入解读# 机器学习中的指数函数和对数函数的作用
在学习机器学习相关理论时,我们常常会会在公式中遇到指数函数和对数函数,但是很时候我们并不理解这些函数的的真正作用,这里结合几个机器学习中的公式来具体分析一下指数函数和对数函数的作用指数函数由上图可知:指数函数的自变量范围是(-∞,+∞),因变量范围是(0,+∞)当指数函数自变量范围在(-∞,0)时,因变量输出范围为(0,1)因此,在神经网络中我们可以用指数函数的这两个性质对数据进行(-∞,+∞)到(0,+∞)或者(-∞,0)到(0,1)的映射softmax函数就是一个使用指数函数将神经网络
2021-03-14 20:08:47 2028 1
原创 #深度解析# GAN(生成对抗神经网络)
生成对抗神经网络借鉴了零和博弈的思想,主要用于样本的生成,属于非监督学习简单总结一下 GAN 的基本思想:GAN由两部分网络组成,一个是生成网络,一个是判别网络生成网络部分类似VAE(变分自编码器)网络,用于生成新样本判别网络网络本质上是一个二分类分类器,用于识别输入的样本是真实样本还是生成的假样本;训练GAN网络时,判别网络会不断提高识别能力,而生成网络会不断提高生成能力从而降低判别网络的判别能力;这两种网络相互竞争从而提高网络生成新样本的能力:...
2021-03-11 16:54:28 2317
原创 计算机视觉领域使用 transformer(Vision Transformer)
计算机视觉领域一般使用CNN网络进行特征提取,但是为了增大CNN卷积核的视野,需要不断增加CNN网络的深度;不断增加网络深度会导致CNN网络训练效率变差、训练过程复杂且不稳定;将transformer网络和CNN网络相结合,用的transformer的self-attention机制代替CNN中卷积层叠加策略,便能在扩大CNN视野的同时增加网络的训练效率;transformer网络和CNN网络相结合通常有两种方式 :Attention Augmented Convolutional Networks 和
2021-03-09 23:54:40 1069
原创 #彻底理解# NLP中的word2vec
首先简单概括一下 word2vec 的思想:word2vec的目的是用指定维度的向量来表示词库中的每一个词,这些向量更利于后期进行各种NLP任务;每个词语对应的词向量本质上是语言模型中的一些权重参数,因此我们需要通过训练网络的方式得到这些权重的最优值,换句话说,我们通过预测未知词的方式训练网络,目的并不是真的要去使用模型预测未知词,而是提取网络的网络的权重参数 进而得到词向量,然后拿这些词向量作为词语的另一种表示形式去进行别的模型里完成NLP任务word2vec的目的是通过训练语言模型得到词向量,而早在
2021-03-08 23:43:10 474
原创 从NLP中的标记算法(tokenization)到bert中的WordPiece
所谓 tokenization ,就是如何提取或者说是记录文本中词语,常用的tokenization有词级标记 (Word level tokenization)、字符级标记 (Character level tokenization)、子字级标记 (Subword level tokenization)词级标记 (Word level tokenization)词级标记就是用空格和标点符号讲一段文本分割成许多词语,词级标记标记的最小维度是词语;虽然词级标记是一种符合常识的标记方法,但是他也存在着诸多
2021-03-07 23:28:40 1754
原创 #从根本上分析# RNN网络梯度消失的原因
和CNN等深度神经网络梯度消失的原因不同,RNN中所谓的梯度消失并不是真正意义上的梯度消失,准确的说应该是梯度消散RNN 中同样的优化参数在各个时刻共享,最终的梯度 g = 各个时间步的梯度 g_t 的和;较远时刻的输出对相比于相邻时刻的输出,梯度的计算需要更多次求导运算,这就导致远距离的梯度更容易消失或爆炸,换一个角度来说,RNN中的总梯度不会消失,而是远距离输出对应的梯度更容易消失,从而导致模型难以学到远距离的依赖关系。关于LSTM介绍请参考为篇文章->#通俗理解# LSTM网络...
2021-03-06 22:42:02 1639 2
原创 #通俗理解# LSTM网络
简单来说,LSTM通过一条主线,三个门来处理序列信息,这里对LSTM常用到的几个计算核函数做一个说明sigmoid函数:用于输出一个0~1的概率值或比例值,一般搭配乘法运算,用于控制信息传递的比例乘法:一般将一个比例值和信息相乘,用于控制信息传递的比例加法:一般将两种信息想加,做信息的融合主线主线上记录所有历史时刻传来的数据(同样经过之前三种门处理后得到的数据)遗忘门融合上一时刻的输出和当前时刻的输入并通过sigmoid函数输出一个0~1的数据,然后和主线上的数据做乘法,意义在于选择当前时
2021-03-04 22:39:06 847 1
原创 #深入理解# BN LN IN GN几种标准化的区别
首先说明一下这 Batch Normalization 和Layer Normalization 都是标准化过程,网上很多文章翻译成批归一化是严重错误的这里先简单说明一下归一化和标准化的区别:归一化:数据线性映射到0-1之间,无量纲化(可以忽略单位对计算的影响),使不同量纲的数据具有可比性标准化:常用的方法是z-score标准化,经过处理后的数据均值为0,标准差为1详细分析请参考我的这篇文章->#浅析# tensorflow中的批标准化Batch Normalization 表示对一批
2021-03-02 21:41:11 993
PaperRetrievalDownload.rar
2021-02-17
kares下的 fashion-mnist 和 mnist 离线数据集打包下载
2021-01-06
外文检索&下载&翻译&管理软件V3.3
2020-11-27
外文检索&下载&翻译&管理软件V3.2
2020-11-25
外文检索&下载&翻译&管理软件V3.1
2020-11-25
外文检索&下载&翻译&管理软件V3.0
2020-11-25
PaperRetrievalDownload.rar
2020-09-02
论文检索&下载&文字提取&翻译&管理软件
2020-07-28
boost_log_setup-vc120-mt-1_56.dll
2020-02-13
boost_locale-vc120-mt-1_56.dll
2020-02-13
boost_iostreams-vc120-mt-1_56.dll
2020-02-13
boost_graph-vc120-mt-1_56.dll
2020-02-13
boost_filesystem-vc120-mt-1_56.dll
2020-02-13
boost_coroutine-vc120-mt-1_56.dll
2020-02-13
boost_context-vc120-mt-1_56.dll
2020-02-13
boost_container-vc120-mt-1_56.dll
2020-02-13
boost_chrono-vc120-mt-1_56.dll
2020-02-13
boost_atomic-vc120-mt-1_56.dll
2020-02-13
boost_date_time-vc120-mt-1_56.dll
2020-02-13
脑电数据批量绘图算法v3.0.zip
2020-01-04
脑电数据批量绘图算法V2.0.zip
2020-01-03
脑电批处理算法.zip
2020-01-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人