pytorch
文章平均质量分 77
五月的天气
承认平凡 不甘平凡
展开
-
神经网络中的logits是什么意思
logit 在统计学上是一个数学函数,但是在神经网络中却有着不同的含义。说白了,logits 就是一个向量,下一步通常被投给 softmax 的向量。就是下图这个箭头所指的位置:转载 2021-09-10 11:12:37 · 12590 阅读 · 1 评论 -
reconstruction_mesh.py代码阅读
三角形、平面法线、顶点法线在Direct3D中,三角形是构成实体的基本单位,因为一个三角形正好是一个平面,以三角形面为单位进行渲染效率最高。一个三角形由三个点构成,习惯上把这些点称为顶点(Vertex)。三角形平面有正反面之分,由顶点的排序决定:顶点按顺时针排列的表面是正面,如图。其中与三角形平面垂直、且指向正面的矢量称为该平面的法线(Normal)。在Direct3D中,为提高渲染效率,缺省条件下只有正面可见,顶点法线(Vertex Normal)是过顶点的一个矢量(法线是一个向量),用于在高原创 2021-08-02 13:36:59 · 422 阅读 · 0 评论 -
python方法记录
import globglob是python自己带的一个文件操作相关模块,用它可以查找符合自己目的的文件,支持通配符操作, *代表0个或多个字符,?代表一个字符,[]匹配指定范围内的字符,如[0-9]匹配数字。glob模块的主要方法就是glob,该方法返回所有匹配的文件路径列表(list)在人脸重建中,一般在导入所需要的input图片使用,通过其将要训练/测试的图片路径放到一个list列表中。import globimg_list = glob.glob(image_path + '/' +原创 2021-07-16 17:43:23 · 158 阅读 · 0 评论 -
Pytorch学习(六)
利用PyTorch完成Cifar10图像分类分类网络的基本结构先加载数据,然后将这个数据进行重组,组合成我们神经网络所需要的数据的形式(数据预处理/数据增强)。我们将数据丢到一个CNN网络中进行特征的提取。在特征提取完之后我们会得到一个N维的向量,而这N个向量就表示我们想要分的N个类别。通过一个损失函数来计算网络当前的损失,通过这个损失对网络进行反向传播,从而对参数进行调整。在进行BP的时候我们就需要定义我们网络的优化器,如梯度下降法等来完成对网络参数的迭代。迭代到模型收敛的时候,即loss很小原创 2021-07-02 21:00:44 · 282 阅读 · 2 评论 -
Pytorch学习(六)—— 卷积神经网络ResNet
VGG网络主要用来作为主干网络,从而提取特征。如SSD目标检测算法,其基础网络就是由VGGNet来构造的。使用1*1的卷积核1*1的卷积核给神经网络添加了一个非线性操作,从而减少或保持输入层中的信道数量保持不变。下面这个卷积操作,就将一个6∗6∗326*6*326∗6∗32的输入变成了一个6∗66*66∗6的输入1∗1∗321*1*321∗1∗32这个过滤器中的这32个数字可以理解为:第二层的一个神经元的输入有32个神经元,乘以32个权重之后相加,然后再使用ReLU非线性函数,最终得到第二层.原创 2021-06-14 13:37:39 · 1587 阅读 · 0 评论 -
PyTorch学习(五)——卷积神经网络
计算机视觉基本概念 灰度图即将c的通道变成1当描述数据时,我们有时候只需要关注其纹理信息,就不需要关注其彩色空间。如果想要模型对于颜色的变化不那么敏感,我们在训练模型的时候就用灰度图。高频部分指的是图像的噪点,边缘点。图像平滑,就是用该点的邻域点来表示它边缘提取算子计算机视觉中的特征工程如LDA算法,将x投影到x‘ (中层次特征) 直方图统计(低层次特征)特征提取 -> 特征选择 -> 建模 (前两个被CNN处理了 :人脸识别 / 图像检索)卷积运算:利用像原创 2021-06-13 22:03:29 · 2220 阅读 · 1 评论 -
Pytorch学习(四)搭建简单的神经网络
神经网络的基本概念神经网络是属于机器学习中的一种算法神将网络也是由多层的 感知器(第二层神经元+构成它的第一层神经元 这个组合叫一个感知器)构成的这样一种网络结构。多隐藏层的多层感知器 -> 深度学习step function(阶跃函数)是激活函数(Relu sigmoid softmax)的一种。回归问题经常使用L1 L2 loss, 分类问题经常食用softmax和交叉熵dropout层就是:对我们某些连接的节点来进行抑制。所谓抑制就是将权值项置为0。这样这些节点就不起作用了。正原创 2021-06-12 11:14:51 · 320 阅读 · 0 评论 -
PyTorch学习(三)
Pytorch与autograd(自动计算梯度)导数主要描述的是一元函数,对于高维多元变量的函数,我们在描述这个函数的时候就没有办法通过一条线来描述,就通常描述为一个曲面/超平面(高维)梯度:函数在A点无数个变化方向中变化最快的那个方向。(求偏导)无监督学习:聚类 / PCA 有监督学习:LDA / SVM / DeepLearning 半监督学习(弱标签:标签不准确 伪标签 一半有标签 一半没标签)可以从半监督的角度来写论文~Variable is Tensor每个tenso原创 2021-06-11 17:45:36 · 153 阅读 · 1 评论 -
PyTorch学习(二)
Pytorch与矩阵分解常见的矩阵分解一般从概率层面对机器学习进行解释,从矩阵层面对机器学习进行求解。LU分解 :用在行列式计算和线性方程组求解上比较多,类似于高斯消元法QR分解:可以完成对矩阵特征值和特征向量的求解。在我们解决优化问题的时候,QR分解能够帮助使得算法的收敛速度更快。EVD分解(Eigenvalue Value Decomposition):也就是特征值分解。和特征值相关的一种机器学习算法:PCA主成分分析,用于数据降维,无监督学习。SVD分解(Singular Value原创 2021-06-11 10:29:28 · 1388 阅读 · 0 评论