深度神经网络笔记
文章平均质量分 59
深度神经网络学习笔记 基于tensorflow2架构
Starry-sky(jing)
苍穹....
展开
-
tensorflow与cuda版本匹配--最新(Tensorflow官网)
tensorflow版本与CUDA版本的对应表原创 2022-06-10 20:17:05 · 2485 阅读 · 1 评论 -
机器学习三 归一化_正则化_多项式升维
一. 归一化1.归一化的目的把数据变为(0,1)之间的数 ,使得在梯度下降的过程中,不同维度的θ值(或w)参数可以在接近的调整幅度上。保持数据在迭代过程中的θ值幅度基本一致。2.常用的归一化类别最大值最小值归一化参数解释:Xj min: X 矩阵中第 j 列特征值的最小值,Xj max: X 矩阵中第 j 列特征值的最大值,Xij : X 矩阵中第 i 行第 j 列的数值,X*i,j : 归一化之后的 X 矩阵中第 i 行第 j列的数值。标准归一化包含了均值归一化和方差归一化原创 2022-01-03 21:16:00 · 1954 阅读 · 0 评论 -
机器学习二 梯度下降方法求解线性回归
一. 为什么要使用梯度下降不管是监督还是非监督,每个模型都有自己的损失函数,损失函数中包含了若干模型参数,比如多元线性回归模型中的损失函数很复杂,无法得到模型参数的估计值及求解公式,因此需要一种大多数函数都适用的方法,即梯度下降法。二. 推导梯度下降公式1.已知我们的MSE损失函数公式如下:下面推导公式中θj是某个特征维度Xj的权值系数,也可以写成 Wj,在损失函数mse中,x和y是已知的θ是未知的,此时θ不是一个变量而是一堆变量,所以我们只能对含有一堆变量中的mse函数中的一个变量求导,即偏导。原创 2021-12-30 21:14:08 · 725 阅读 · 0 评论 -
机器学习一 解析解方法求解线性回归
一.MSE损失函数公式1.已知我们损失函数MSE的公式如下:MSE损失函数,从公式我们也可以看出来MSE名字的来历,mean squared error ,上式也叫做最小二乘。二.推导出θ的解析解形式明确目标:θ为何值使得损失函数最小。利用上述公式开始推导:2.推导函数的一阶导(或求梯度),此阶段我们的已知是X和y,未知是θ,所以和θ无关的部分求导忽略不记.补充相关知识点3.开始求一阶导4.假设我们找到了最优解,即梯度为0。则令该函数等于0,进而求得我们θ对应的解析解公式:原创 2021-12-29 16:33:19 · 1388 阅读 · 0 评论 -
Ubuntu18.4安装srilm工具并训练ARPA语言模型
一. 安装 SRILM 工具依赖安装sudo apt-get install gcc g++sudo apt-get install makesudo apt-get install gawksudo apt-get install gzipsudo apt-get install bzip2sudo apt-get install p7zip下载 tcl , srilm官网下载: srilm.tgz官网下载: tcl8.6.12-src.tar.gz快捷下载:安装t原创 2021-12-07 17:59:51 · 1106 阅读 · 0 评论