- 博客(9)
- 收藏
- 关注
原创 数学
梯度:梯度是矢量,那么就可以用矢量求模的方法来求梯度的模非奇异矩阵奇异矩阵的判断方法:首先,看这个矩阵是不是方阵(即行数和列数相等的矩阵。若行数和列数不相等,那就谈不上奇异矩阵和非奇异矩阵)。 然后,再看此方阵的行列式|A|是否等于0,若等于0,称矩阵A为奇异矩阵;若不等于0,称矩阵A为非奇异矩阵。 同时,由|A|≠0可知矩阵A可逆,这样可以得出另外一个重要结论:可逆矩阵就是非奇异矩阵,非奇异矩阵也是可逆矩阵。正定矩阵:...
2021-04-01 15:59:55 139
原创 Tensorflow安装教程
1.anaconda安装 官网下载,一直点next,注意有一步添加环境变量,避免以后添加环境变量很麻烦2.CUDA,cuDNN安装 注意版本(版本查看:桌面右击NVIDA控制面板,左下角系统信息,组件里的NVCUDA.DLL)官网下载(不需要安装VS,记不清楚是否要添加环境变量,可以先不添加,测试是否安装成功)安装完CUDA,将cuDNN三个文件夹替换CUDA里三个同名文件夹3.在anaconda prompt软件中用指令创建tensorflow-gpu虚拟环境4.win+R 输入cmd 打开终端,激
2021-01-15 18:51:30 1380
原创 归一化
归一化1)归一化后加快了梯度下降求最优解的速度;2)归一化有可能提高精度。提高梯度下降法求解最优解的速度归一化有可能提高精度一些分类器需要计算样本之间的距离(如欧氏距离),例如KNN。如果一个特征值域范围非常大,那么距离计算就主要取决于这个特征,从而与实际情况相悖(比如这时实际情况是值域范围小的特征更重要)。归一化的类型1)线性归一化这种归一化方法比较适用在数值比较集中的情况。这种...
2020-10-19 09:41:24 414
转载 《How transferable are features in deep neural networks》
论文《How transferable are features in deep neural networks》该论文被NIPS2014收录,对于研究深度神经网络特征的可迁移性具有重要意义。本文实验了深度神经网络中不同层神经元的泛化性能和特异性,模型的迁移能力主要受到两个因素的影响:1)深度模型在越深的层,其专业性(specialization)越强,即越只能完成特定任务,这使得深度模型学习到的深层特征迁移性很差;2)模型在优化的过程中,层与层之间的参数的优化是有关联性,当固定浅层的权值,来训练高层权
2020-10-03 16:01:13 1076
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人