- 博客(31)
- 资源 (1)
- 收藏
- 关注
原创 ubuntu16.04环境下安装搜狗拼音输入法
对于初次使用ubutu环境的同学,安装软件的过程绝对是一个非常折磨人的过程,需要根据各种各样安装出现的问题判断解决办法。我先讲自己安装搜狗拼音输入法的几点体会吧。1. 对自己有信心,做事有耐心。绝大多数人第一次使用ubutu环境,都不可能做到一次性将软件装好(如果你能做到,你可以去买彩票了),所以,遇到问题的时候,不要灰心,要保持冷静,同时,要有足够的耐心,要百折不饶(我安装搜狗拼音一共用了两...
2019-04-28 18:23:45 175
原创 Windows、Ubuntu双系统正确卸载Ubuntu系统
正确的删除ubuntu方法如下: 第1步,修复MBR1.进入windows,下载个软件MbrFix,放在C:\Users\Administrator文件夹中2.打开命令提示符(以管理员身份启动)(默认目录为C:\Users\Administrator)3.在命令提示符中输入MbrFix /drive 0 fixmbr /yes 注:如果出现 Function failed. ...
2019-04-27 19:12:44 196
原创 VGG网络的理解
VGG的主要作用:使用非常小的(3×3)卷积滤波器架构对网络深度的增加进行了全面评估,这表明通过将深度推到16-19加权层可以实现对现有技术配置的显著改进。VGG网络的改进点:1 使用了更小的33卷积核,和更深的网络。两个33卷积核的堆叠相对于55卷积核的视野,三个33卷积核的堆叠相当于77卷积核的视野。这样一方面可以有更少的参数(3个堆叠的33结构只有77结构参数数量的(333)/(77)...
2019-04-23 15:40:02 2332
原创 卷积神经网络中的channel数的理解
channel数指的是每一层卷积核的个数。参考文献:https://blog.csdn.net/xys430381_1/article/details/82529397
2019-04-23 15:31:00 2374
原创 卷积神经网络之relu激活函数的理解
激活函数的目的:神经网络中,激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。relu激活函数如图所示:relu激活函数的优势:(1)反向传播时,可以避免梯度消失。(2)Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。(3)**相对于si...
2019-04-23 15:05:19 10948
原创 LeNet网络的理解
附上几篇我认为Lenet理解比较好的连接。链接1:https://blog.csdn.net/m0_37264397/article/details/75174484该博文对Lenet每一层的网络结构连接参数有非常详细的计算过程,便于小白深入学习Lenet网络结构。链接2:https://blog.csdn.net/zhangjunhit/article/details/53536915...
2019-04-23 12:27:12 533
原创 小白入门学习卷积神经网络
卷积神经网络产生的背景:(1)卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。卷积神经网络的特点:(1)局部相关性:相邻的像素结合起来表达一个特征,距离较远的像素影响较小随着层数的增加,feature map里面的点映射到原图的感受野越来越大不仅仅可以适用于图像,其它具有局部相关性的数据均可以尝试卷积网络处理带来一...
2019-04-23 00:11:33 873
原创 一文读懂卷积神经网络中softmax,softmaxloss, 交叉熵的理解
softmax:应用于分类问题,位于卷积神经网络层的最后一层。softmax意义:输出输入图片,对应概率最大的类别,以及属于该类别的可能性概率。以下文献对softmax有很好的解释:https://blog.csdn.net/u014380165/article/details/77284921...
2019-04-19 17:22:10 4935 2
原创 对称矩阵与反对称矩阵
对称矩阵:沿对角线两边的元素,对称相等。反对称矩阵:矩阵的转置等于原来所有矩阵元素与-1相乘。反对称矩阵:设A为n维方阵,若有A′=−A,则称矩阵A为反对称矩阵。反对称矩阵的性质:对于反对称矩阵,它的主对角线上的元素全为0,而位于主对角线两侧对称的元素反号。...
2019-04-17 22:10:17 24149
原创 构建大型机器学习系统的建议
先建立一个简单的模型。画出模型的学习曲线。在训练集上进行误差分析,手动检查算法错误的过程,提取一些有用的特征继续学习。对模型进行数值估计,数值估计的目的是为了评估对模型的优化是否有效。...
2019-04-16 17:17:33 165
原创 如何根据模型的偏差和方差来判断模型的拟合情况(评估优化模型的性能)
方差:模型输出围绕数据集标签均值波动的情况。偏差:模型输出偏离数据集标签均值的情况。高偏差对应欠拟合:训练误差和测试误差都很大。高方差对应过拟合:训练误差很小,测试误差很大。(1)多项式阶数和训练集,测试集误差的关系:(2)正则化系数和训练集,测试集误差的关系:...
2019-04-16 16:15:35 3648
原创 训练集,验证集和测试集
训练集:通过最小化目标函数(损失函数 + 正则项),用来训练模型的参数。当目标函数最小化时,完成对模型的训练。验证集:用来选择模型的阶数。目标函数最小的模型对应的阶数,为模型的最终选择的阶数。测试集:评估模型的泛化能力。根据选择的已经训练好的模型,评估它的泛化能力。...
2019-04-16 15:47:46 449
原创 交叉验证
交叉验证方法的原理:将训练数据分为k份,每次使用一份作为验证值,其余作为训练集,k的取值为3,5,8。交叉验证的特点:该方法计算代价很高,但不会浪费太多的数据,当数据量较少时,有优势。...
2019-04-16 09:27:53 171
原创 梯度下降法之方向导数,梯度的理解
https://blog.csdn.net/qq_40707407/article/details/80101501
2019-04-15 18:50:14 1298
原创 应用机器学习解决问题的一般步骤
获取样本数据。包括样本数据和其对应的标签值。提出假设模型。如果是回归问题,则提出线性模型,如果是分类问题,则提出对数回归模型,或者更复杂的神经网络模型。通过损失函数,训练模型的参数,使得损失函数最小。验证模型的性能是否符合我们的期望。...
2019-04-15 17:27:19 1009
原创 逻辑回归模型方法的理解
解决的问题:分类问题逻辑回归模型的输入:(1) 样本训练集trainingSet = {(x1,y1),…(xM,yM)}注:共有m个训练样本,样本的标签值y取值为0,1对数回归重要公式总结:多分类问题:可以转化为求多个二分类问题解决,选取概率最大的类别作为输出类别。...
2019-04-14 18:26:43 285
原创 代价函数(损失函数)的理解
代价函数的目的:用来训练模型中的参数。代价函数的意义:表征模型输出与标签值之间的差异。代价函数选取的标准:(1)可导。(2)满足凸函数的条件,可以方便用梯度下降法求解最小值。举例:1- 线性回归代价函数:线性回归中的代价函数:J(θ)=12m∑i=1m(yi−hθ(xi))2J(θ)=12m∑i=1m(yi−hθ(xi))2线性回归代价函数的实际意义就是平方误差。而逻辑回归却不...
2019-04-14 15:22:41 634
原创 为什么不用线性回归解决分类问题
线性回归用来解决分类问题时,稳定性差。当样本分布比较复杂时,线性回归无法做到准确的分类。例如:(1)无异常值的线性回归情况:只要将阈值设定为0.5,就可以进行很好地分类。(2)有异常值的线性回归情况:需要将阈值设定为0.2,才可以进行很好地分类。(3) 逻辑回归对异常值具有很好地稳定性。2. 线性回归的取值范围为负无穷到正无穷,逻辑回归的取值为0,1。...
2019-04-14 12:52:19 4636 3
原创 一文读懂反向传播算法(BP算法)的前世今生
反向传播算法的目的:训练神经网络的权值系数,最终完成对权重系数的调整核心:通过比较输出y和label值t,对参与计算的w进行调整方法:从网络的输出层开始,向输入层方向逐层计算梯度并更新权重,与前馈运算相反。......
2019-04-13 22:38:17 3039
原创 逻辑回归,感知机与神经网络的关系
逻辑回归是神经网络的基础,具体体现为逻辑回归的输出为神经网络某个神经元未经激活的输出。可以理解为逻辑回归算法是构成神经网络的神经元的算法。...
2019-04-13 13:09:24 2221
转载 最详细的齐次坐标理解(3D场景投影到2D场景的基础概念)
搬运一篇优秀的对齐次坐标解释的很清楚的帖子,作者是韩国的,从其个人博客翻译的,原地址贴上http://www.songho.ca/math/homogeneous/homogeneous.html问题:两个平行线可以相交每个人都熟悉的知识:在欧几里得空间,一个平面的两条平行直线永不相交。但在投影空间却不是这样的。例如,图里的铁轨随着远离视线而变得越来越窄,最终在无限远处相交于一点。铁轨在远...
2019-04-12 15:38:24 2729
原创 神经网络防止过拟合的8种优化方法
获取更多的数据。最直观有效的方法,有了足够的数据网络也不太容易过拟合。数据增强。复制现有数据并加随机噪声,重采样等,在图像领域我们可以进行不同角度旋转,平移变换,随机裁剪,中心裁剪,模糊等。参数正则化(权值衰减)在损失和模型复杂度之间进行折中,可以采用L1和L2,其中L1采用的是拉普拉斯先验,倾向于聚焦网络的权值在相对少量的高重要连接上,而其他权重就会趋向于0,而L2正则采用的是高斯先验...
2019-04-11 10:05:16 9142
原创 神经网络的理解
感知器是神经网络的基础。神经网络的训练过程:神经网络的损失用来衡量标签值和输出值之间的差异,通过损失函数计算损失,神经网络中一般采用交叉熵来计算损失。梯度是指损失函数关于权重的导数,采用随机梯度下降法进行训练。使用梯度下降更新权重。最终使得损失小于某种阈值,或者训练次数达到设定的值,训练结束。神经网络性能的评价指标分类网络性能的评价指标通过准确率来完成。准确率指标签值等于输出值的个数与数...
2019-04-09 21:58:20 707
原创 python 错误 SyntaxError: invalid character in identifier
解释器提示如:SyntaxError: invalid character in identifier, 但又一直找不到问题点的话,请确保代码行内没有夹杂中文的空格,tab等,非文字字符.
2019-04-08 19:21:08 242
原创 tensorflow安装教程(一般使用国内的清华源进行安装)
注:安装tensorflow,numpy这些源,记得用国内的清华镜像源,国外的源由于网络延迟无法安装。1.国内安装tensorflow的命令:pip install --index-url https://pypi.douban.com/simple tensorflow或pip install --index-url http://mirrors.aliyun.com/pypi/simpl...
2019-04-08 10:55:29 14506 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人